您的位置:首页 > 社会.民生

又现利用AI生成视频造谣,应明确开发应用者的谣言治理责任

治理AI谣言需要一套“组合拳”

2024年06月21日 17:05:10 来源:解放日报 作者:任翀

一段时间以来,在不少地区警方通报的造谣传谣事件中,都有“AI软件”“大模型”“自动生成”等字眼。更严重的是,有些AI软件的“造谣效率”非常惊人。比如,出现了“一天能生成19万篇文章”的造假软件。据查获该软件的西安警方介绍,用户从专门售卖新闻稿件的网络平台购买大量的真实新闻稿件,形成“稿池”;再通过造假软件,输入自己的需求,由软件自动生成文稿。该软件将真实的新闻稿件拼凑、前后段落颠倒、同义词替换后,能形成一篇篇反映同一件事情但类型不同的文章。

这些假新闻有什么用呢?其背后有专门的“牟利账号”。相关账号的使用者有组织地将这些文章发布到相关平台,再利用平台的流量奖励制度等获利。目前,该案涉及的账号已被平台查封,有关软件和服务器也被关闭。

以上案例说明,人工智能技术无疑是把“双刃剑”,在助力各行各业的同时,也带来了批量造假的副作用,甚至已经出现了“跑断腿都来不及辟谣”的新困境。

在这种情况下,只有源头治理,才能减少谣言的数量。一方面,平台应当加大审查力度。目前,很多平台已经明确,要求用户对人工智能生成类内容加以标注,并对包含虚构、演绎等环节的内容,也要明确加注虚构标签。对于违规的账号会采取“封号”等举措,但这已是谣言传播的事后管理方式。若要切断谣言传播源头,有必要推出更有效的事前和事中防范措施。比如,账号注册核验、动态巡查、调整流量分成制度等。

另一方面,应当明确软件开发者、技术应用者的谣言治理责任。部分大模型开发者表示会通过后台设置的方式,对通过大模型生成的内容打上水印,告知用户。但部分小的软件开发商,以及那些专门开发“AI造假”软件的应用者,不仅不会设置标签,而且想方设法去除标签、绕开监管。因此,有必要明确技术应用者及软件开发者的责任。对那些默许、放任甚至故意编写软件造谣传谣的人员,严惩不贷。

最后,不妨在谣言治理中引入人工智能技术。现有的人工智能技术已经有能力“一目千行”“一目万行”,从海量真实新闻中发现造假文章的拼凑痕迹。如果有对应的模型,无疑能及时填补人工核查的缺陷,快速有效识别AI造假。

随着AI生成技术的普及,信息伪造的门槛越来越低,需要审核的信息越来越多。这个时候迫切需要“科技向善”的导向,鼓励开发者从技术研发、产业应用、制度设计等各方面加强合作,形成AI谣言治理的组合拳。

责任编辑:刘欣蕊
  • 软件
  • 人工智能
欢迎关注中国城市报微信号
分享到: 

关于我们

城市服务

报社业务


网站备案号:京ICP备15005404号-4 京公网安备 11010502043907号
互联网新闻信息服务许可证10120190005 举报邮箱: jubao@people.cn  违法和不良信息举报电话: 010-65367114  010-65363263 地址:北京市金台西路2号人民日报社 邮编 100733

《中国城市报》社有限公司版权所有,未经书面授权禁止使用

Copyright © 2015-2025 by www.zgcsb.com. all rights reserved