一段时间以来,在不少地区警方通报的造谣传谣事件中,都有“AI软件”“大模型”“自动生成”等字眼。更严重的是,有些AI软件的“造谣效率”非常惊人。比如,出现了“一天能生成19万篇文章”的造假软件。据查获该软件的西安警方介绍,用户从专门售卖新闻稿件的网络平台购买大量的真实新闻稿件,形成“稿池”;再通过造假软件,输入自己的需求,由软件自动生成文稿。该软件将真实的新闻稿件拼凑、前后段落颠倒、同义词替换后,能形成一篇篇反映同一件事情但类型不同的文章。
这些假新闻有什么用呢?其背后有专门的“牟利账号”。相关账号的使用者有组织地将这些文章发布到相关平台,再利用平台的流量奖励制度等获利。目前,该案涉及的账号已被平台查封,有关软件和服务器也被关闭。
以上案例说明,人工智能技术无疑是把“双刃剑”,在助力各行各业的同时,也带来了批量造假的副作用,甚至已经出现了“跑断腿都来不及辟谣”的新困境。
在这种情况下,只有源头治理,才能减少谣言的数量。一方面,平台应当加大审查力度。目前,很多平台已经明确,要求用户对人工智能生成类内容加以标注,并对包含虚构、演绎等环节的内容,也要明确加注虚构标签。对于违规的账号会采取“封号”等举措,但这已是谣言传播的事后管理方式。若要切断谣言传播源头,有必要推出更有效的事前和事中防范措施。比如,账号注册核验、动态巡查、调整流量分成制度等。
另一方面,应当明确软件开发者、技术应用者的谣言治理责任。部分大模型开发者表示会通过后台设置的方式,对通过大模型生成的内容打上水印,告知用户。但部分小的软件开发商,以及那些专门开发“AI造假”软件的应用者,不仅不会设置标签,而且想方设法去除标签、绕开监管。因此,有必要明确技术应用者及软件开发者的责任。对那些默许、放任甚至故意编写软件造谣传谣的人员,严惩不贷。
最后,不妨在谣言治理中引入人工智能技术。现有的人工智能技术已经有能力“一目千行”“一目万行”,从海量真实新闻中发现造假文章的拼凑痕迹。如果有对应的模型,无疑能及时填补人工核查的缺陷,快速有效识别AI造假。
随着AI生成技术的普及,信息伪造的门槛越来越低,需要审核的信息越来越多。这个时候迫切需要“科技向善”的导向,鼓励开发者从技术研发、产业应用、制度设计等各方面加强合作,形成AI谣言治理的组合拳。