AI谣言舆情特征及风险研判
484.99 KB
8 页
3 下载
73 浏览
0 评论
0 收藏
语言 | 格式 | 评分 |
---|---|---|
中文(简体) | .docx | 3 |
概览 | ||
AI 谣言舆情特征及风险研判
来源:法制网舆情中心 作者:任静
编者按
近年来,网络谣言逐渐出现一些新动向,其中比较典
型的便是利用 AI 工具造谣。随着人工智能技术快速发
展,AI 谣言呈现数量增多、涉及领域广泛、传播渠道集
中、与社会热点话题紧密关联等特征,给政法机关社会治
理工作带来较大挑战。今年 1 月份后,公安部网安局、互联
网联合辟谣平台以及各地警方持续通报对多起涉 AI 谣言的
处置情况,引发舆论持续热议。法治网舆情中心从 2025 年
1 月以来的涉 AI 谣言事件中挑出 10 起热度较高、较具代表
性的事件,分析当前 AI 网络谣言的舆情特征,研判其背后
的舆情风险并提出应对建议,供政法机关参考。、
一
舆情事件
10 起典型案例中,有 4 起 AI 谣言与自然灾害相关,包
括地震、山体滑坡等;2 起谣言涉及食品安全和突发事件,
分别为“四川某中学食堂用淋巴肉做包子致 87 名学生中
毒”和“某地学校发生火灾”;还有 4 起谣言分别涉及伪科
学、文娱行业、社会秩序和司法案件四个方面。AI 谣言表
现形式较多,大多通过微博、微信、短视频等社交媒体渠
道扩散,并以文字、图片、视频形式单一或“搭配”传
播,比如“西藏定日县地震一小孩被压废墟”谣言形式为
图片,“上海退休教授靠阳台核电池供电”谣言则是以
“文字+视频”的形式传播。造谣动机方面,有 8 起事件明
确提到造谣者是为了蹭热点、赚取流量收益,可见流量经
济仍然是 AI 谣言存在的底层逻辑。10 起事件中,有 2 起事件被官方辟谣,但没有其他情况通报,其余 8 起均有明确处
理结果。处置结果方面,10 起事件中有 5 起事件的造谣者
被公安机关给予行政处罚或行政拘留,有 2 起事件进入到司
法流程,网民闫某某因刻意炒作“国内首例智能驾驶致死
案”,被属地警方刑事拘留;网民徐某某等 3 人散布“上海
某地惊现骨灰房”等谣言,获利数额较大,被上海当地法
院以非法经营罪判处有期徒刑一年十个月不等。
二、舆情特征
(一)形式多样、细节逼真增强内容迷惑性
相较于人工炮制的谣言,AI 谣言在内容上有着更强的
迷惑性,主要体现在两个方面。一是传播形式多样。当前
的 AI 谣言已经不止于生成文字、图片、视频等单一形式内
容,而是可以实现“文字+图片”“文字+视频”等多种形
式的叠加,而不同传播形式之间相互补充和印证,让“有
图有真相”“有视频有真相”的欺骗性进一步加深,如四
川一男子利用 AI 制作短视频并配文,称“瞬间几十条生命
是那么脆弱,让我们一起祈祷雅安平安”,逼真影像产生
强烈冲击效果。二是细节呈现真实。AI 生成的内容往往配
图、数据齐全。为增加真实性,很多谣言将某个真实细
节、某个真实的音视频片段进行嫁接、伪造、混剪,谣言
内容真假交织,图文并茂、细节充分,被网民吐槽为“一
本正经胡说八道”。比如“首例智能驾驶致死案宣判”这则谣言,从事故认定到诉讼细节再到法院判决结果,整篇
文章在逻辑上和专业性上都难以察觉出漏洞,不少媒体都
对该“案件”进行了报道。
(二)AI 技术助长谣言批量化生产、破坏力升级
从上述案例可以看到,AI 技术的不断成熟令造谣变得
十分容易。造谣者只要提供素材和简单描述,AI 技术就能
实现“文生图”或“图配文”,前者只需提供文字,就能
自动生成相对应的图片,后者则会根据图片内容,自动匹
配相应的文字。看似复杂的操作,在 AI 工具强大的功能
下,使用者仅用几句简单直白的指令就可以完成。这种操
作方式大大降低了谣言生产的技术门槛,提升了谣言编造
效率,帮助造谣者在很短的时间内批量生产出欺骗性很强
的内容。如网民徐某某等三人为了博眼球,以获取流量和
点击量变现,利用某 AI 软件将已有文章洗稿后变成伪原
创,行为人还通过 AI 设置“爆款标题”“重复率不得高于
25%”等指令逃避平台监管,批量生成近 10 万条假消息。可
见,利用 AI 技术,谣言制造者可以批量生成大量的虚假新
闻内容,并通过自动化工具发布到多个网络平台,以极强
的伪装性干扰公众的认知判断,形成较大破坏力。
(三)充当谣言传播“帮凶”助推虚假消息扩散
AI 不仅可能成为谣言的始作俑者,还可能充当谣言传
播的“帮凶”,成为放大错误和虚假信息的重要一环。具体来看,数据质量对 AI 内容至关重要,互联网上良莠不齐
的信息源在某种程度上加剧了 AI 内容生成的错误率,自媒
体为商业利益制造的虚假信息、历史记录的多版本等,都
成为 AI 模型的“事实陷阱”,形成“垃圾进-垃圾出”的
恶性循环。例如,近期成都官方辟谣了“成都艾滋病 17 万
人”的虚假信息,随后就有网民向 DeepSeek 询问四川艾滋
病感染人数,AI 给出的答案仍然是“新增 17.47 万例”。此
外,还有一些网民利用 AI 技术对谣言进行“二创”,如谣
言“上海退休教授在阳台搞核发电”在传播过程中,有网
民依据文字制作了类似“真人出镜”效果的 AI 短视频,一
本正经地介绍“阳台核发电原理分析”,用言之凿凿的伪
科普谣言“取信于民”,产生更大范围的舆论误解。
三、舆情风险
(一)信息垃圾泛滥,溯源难度大
随着 AI 生成、伪造或篡改文本、图片、音频和视频的
现象趋于普遍,大量粗制滥造、真假难辨的“信息垃圾”
充斥舆论场。这些垃圾信息数量庞大,识别筛选难度较
高,传播路径复杂,内容碎片化难以溯源。如“上海退休
教授靠阳台核电池供电”的谣言主要表现为两个版本,一
个是在朋友圈等圈群中传播的文字版,一个是短视频版,
但文字版本标明“讨论内容来自短视频”,短视频的内容
又称“引用了文字版本内容”,再加上 AI 技术具有匿名性和隐蔽性,使得谣言鉴定追踪的难度增大。同时,由于 AI
背靠庞大数据库,对于各类领域的谣言都可以“信手拈
来”,这就为造谣者提供极大便利,他们可以借助 AI 轻松
突破知识壁垒,为达到某种目的针对目标人群输出特定观
点或情感化内容,致使谣言呈现一定的针对性和私密性,
在扰乱公众视听的同时难以被快速捕捉。
(二)辟谣成本增加,加剧舆论场混乱
AI 谣言给官方的辟谣工作造成困难,主要体现在辟谣
速度滞后和辟谣效果削弱两个方面。由于 AI 谣言生成呈现
速度快、批量化的特征,尤其是关于公共安全的谣言内
容,在短时间内可以实现大范围的传播,但相对来说辟谣
则需要更加谨慎,无论是对 AI 谣言的识别还是溯源,都要
花费比较长的时间成本,辟谣速度难以跑赢 AI 谣言的传播
速度。另外,由于 AI 无法识别信源的真实性,因此可能会
将过往的谣言内容二次输出,导致谣言再次回流舆论场,
辟谣的同时还会有源源不断的新谣言出现。如“80 后死亡
率 5.2%”的谣言被辟谣后,有网民在 AI 大模型中输入问
题:“50 后、60 后、70 后、80 后,这几代人的死亡率分别
是多少?”,AI 给出的回答仍然是 5.2%。由此可见谣言可
能会借 AI 形成二次传播,进而增加辟谣难度,混乱局面难
以快速终结。
(三) 侵蚀公众认知 影响社会稳定“AI 幻觉”也可能会给公众带来“认知幻觉”。随着 AI
技术的发展,部分公众对 AI 技术产生一种“技术崇拜”心
态,对 AI 输出的信息的判断能力和认知水平整体下降,特
别当某个“不同文案同一结论”的信息重复多次出现,即
便公众此前对网络信息的真实性有所怀疑,公众内心的确
信也可能产生动摇。这种盲从或依赖心理在公共安全、重
大突发等事件中体现得最突出,社会危害性更大。比如事
件发生后,公众对伤亡人数、救援进展等方面的信息需求
十分急切,而趁机侵入的 AI 谣言生成虚假现场图片,以文
字形式夸大伤亡人数和破坏程度等,无疑会引发公众强烈
焦虑感。当肉眼难辨的 AI 工具输出的信息越来越像人类创
作的内容,甚至连转发、评论等互动表现也与真实用户高
度一致,真实和虚假的边界逐渐模糊,就会严重扰乱社会
秩序,影响社会稳定。
四、舆情建议
AI 技术快速发展的同时为虚假信息的治理带来了新的
挑战。面对网络中不断出现的 AI 谣言,属地公安、网信等
部门迅速开展核查,在查清事实后及时辟谣,让造谣者承
担相应法律责任,受到舆论认可。目前,国家已制定了一
系列明确的法律法规,对 AI 造谣行为进行规制监管,比如
《网络音视频信息服务管理规定》《互联网信息服务深度
合成管理规定》《生成式人工智能服务管理办法》等,通过设置标识等方式提醒用户辨别虚假信息,明确相关服务
主体的标识责任义务,规范内容操作、传播各环节标识行
为,为依法治谣提供了重要法律依据。如何从社会治理层
面开展 AI 谣言治理工作,从舆论呼声来看,以下两点建议
供参考。一是建立行之有效的网络监管机制。公安、网信
等部门需加强日常网络巡逻,对疑似谣言的线索快速核
实,尽早阻断谣言发酵。在操作层面上,要利用 AI 工具进
行技术对抗,加强对事件的真实性判断,提高辟谣效率和
精准度。二是在通报处置上,需重视辟谣信息发布频次,
同时进行阶段性的集纳式通报,强化和巩固公众对于事实
的认知。对一些造成恶劣影响的谣言要保持高压态势,严
肃追责造谣者和恶意传播者,营造风清气正的网络空间。
|
下载文档到本地,方便使用
共 8 页, 还有
1 页可预览,
继续阅读
文档评分