AI谣言舆情特征及风险研判
AI 谣言舆情特征及风险研判 来源:法制网舆情中心 作者:任静 编者按 近年来,网络谣言逐渐出现一些新动向,其中比较典 型的便是利用 AI 工具造谣。随着人工智能技术快速发 展,AI 谣言呈现数量增多、涉及领域广泛、传播渠道集 中、与社会热点话题紧密关联等特征,给政法机关社会治 理工作带来较大挑战。今年 1 月份后,公安部网安局、互联 网联合辟谣平台以及各地警方持续通报对多起涉 AI AI 谣言的 处置情况,引发舆论持续热议。法治网舆情中心从 2025 年 1 月以来的涉 AI 谣言事件中挑出 10 起热度较高、较具代表 性的事件,分析当前 AI 网络谣言的舆情特征,研判其背后 的舆情风险并提出应对建议,供政法机关参考。、 一 舆情事件 10 起典型案例中,有 4 起 AI 谣言与自然灾害相关,包 括地震、山体滑坡等;2 起谣言涉及食品安全和突发事件, 分别为“四川某中学食堂用淋巴肉做包子致 学、文娱行业、社会秩序和司法案件四个方面。AI 谣言表 现形式较多,大多通过微博、微信、短视频等社交媒体渠 道扩散,并以文字、图片、视频形式单一或“搭配”传 播,比如“西藏定日县地震一小孩被压废墟”谣言形式为 图片,“上海退休教授靠阳台核电池供电”谣言则是以 “文字+视频”的形式传播。造谣动机方面,有 8 起事件明 确提到造谣者是为了蹭热点、赚取流量收益,可见流量经 济仍然是 AI 谣言存在的底层逻辑。100 魔豆 | 8 页 | 484.99 KB | 3 月前3DeepSeek走热全球,标杆之下国产AI仍需求索
DeepSeek 走热全球,标杆之下国产 AI 仍需求索 近日,一款由国内企业“深度求索”研发的 AI 模型“deep seek”走热全球。根据公开信息,该模型在性能上已经非常 接近 OpenAI 研发的 ChatGPT,但在研发成本上远低于 ChatGPT。据官方技术论文披露,DeepSeek-V3 模型的总训练 成本为 557.6 万美元,而 GPT-4o 等模型的训练成本约为 1 量高端芯片的基础之上发展的。因此,作为人工智能技术的 产物,deep seek 展示了当前我国 AI 领域的最新进展,证明 了我国仍然能够突破美国的重重围困,走出一条自己的道路, 这对于我国科技界来说,无疑是一剂有效的强心针。 其次,DeepSeek 的出现可能推动后续我国产业链的变革。 当下,AI 在各行业的应用越来越广泛。DeepSeek 作为一款 开源模型,其在包括教育、医疗等更宽广 从长远来看,这可能会让中国成为研发人工智能的中心。中 美在 AI 技术标准制定上的竞争也可能因此加剧。而技术标 准不仅影响市场准入,还关系到未来技术发展的方向。 其四,在公众认知与教育层面,DeepSeek 的存在可能会 提高公众对 AI 技术的认知。推动社会对科技发展的关注和 讨论。这种认知的提升可能会影响政策制定、教育体系改革 以及公众对科技竞争的态度。 路漫漫其修远,未来国产 AI 发展仍需上下求索 DeepSeek0 魔豆 | 4 页 | 234.39 KB | 8 月前32025年AI产业发展十大趋势报告
by Copyright Laws 本产品保密并受到版权法保护 2025年 AI产业发展十大趋势 易观分析 2024年12月2 激发科技与创新活力 AI赋能千行百业,行业大模型催生“智能链主” AI技术能力普惠之下,利用企业专有数据形成深度洞察与策略是 企业未来经营差异化的重要关键 AI应用的深化将对企业的组织能力提出新的要求,企业需要打造 适用于人机协同的组织管理体系 复杂的任务 AI原生应用形成服务闭环,聚焦专业用户提升效率是中短期重要 方向 现存应用加速拥抱AI,利用LLM能力提升产品竞争力,不加AI就 淘汰 AIGC赋能IP全生态,延长优质IP生命周期,提升商业价值贡献 硬件全面AI化,教育与办公、生活的应用场景闭环率先实现落地 2025年AI产业发展十大趋势 应用场景多元化探索,初现雏形 企业拥抱AI持续加速,理性思考投入产出比 内 大模型也在奋起直追,人工智能的发展从分析式AI进入生成式AI时代。 分析式人工智能→生成式人工智能 人工智能与AGI发展阶段划分 •交互革命 •人机交互方式:GUI��� DUI/HUI •Prompt工程价值凸显 •知识革命 •语言是知识的载体,未 来模型人人可训、人人 可用,即个人知识能力 将得以复制和扩展 •思维革命 •AI具备独立思考与逻辑 判断的能力 •进一步延展,具身智能20 魔豆 | 51 页 | 5.30 MB | 9 月前3Manus崭露头角,国产AI于争议中探寻前路
Manus 崭露头角,国产 AI 于争议中探寻前路 在人工智能领域蓬勃发展的当下,新的产品与技术不断涌现。近 期,一款名为 Manus 的 AI Agent 一经推出,便迅速在网络上引发热 议。Manus 发布初期,借助一段展示强大功能的 4 分钟视频,引发了 科技媒体、AI 行业从业者以及广大科技爱好者的关注,从视频中可以 了解到,Manus 具备诸多令人眼前一亮的能力。例如在筛选简历这一 位从 事 AI 产品测评的人士直言,Manus 产品体验虽有创新,但技术创新 方面并没有太大跨度,远称不上是智能体的“DeepSeek 时刻”。更 有网友犀利地指出,当前一些头部营销号过度带节奏、蹭流量,使得 Manus 的功能被严重夸大,这一批 AI 的出现,最忙碌的竟是自媒体 博主们。 国内大模型企业人士对此深感忧虑,认为头部营销号的行为严重 透支了国内民众对 AI 行业的信任。猎豹移动董事长兼 毫无价值。它的出现,为国产 AI 在智能体领域的发展提供了新的思 路与探索方向,让我们看到了产品层创新的可能性与潜力。 对于国产 AI 而言,Manus 的出现是一个契机,更是一种警示。 一方面,我们应当看到国内团队在 AI 产品创新方面的积极尝试与努 力,在模型训练和产品创新方面,中国 AI 团队其实并不缺乏实力, 也取得过不少令人骄傲的成绩。但另一方面,我们也必须清醒地认识 到,当前 AI 行业竞争0 魔豆 | 3 页 | 183.00 KB | 7 月前3埃菲尔铁塔再遭火灾,莫让AI虚假信息“火上浇油”
埃菲尔铁塔再遭火灾,莫让 AI 虚假信息“火上浇油” 当地时间 24 日,法国巴黎埃菲尔铁塔一层与二层间的 一个电梯井发生火灾,疑似由电线短路引起。火灾触发警报 后,现场 12000 名游客被紧急疏散,铁塔关闭。消防部门迅 速响应,火势很快得到控制,未造成人员伤亡。铁塔在当天 中午部分重新开放,但仅开放至第二层。目前,相关部门正 在对起火原因展开调查。同时火灾发生后网上流传大量虚假 的埃菲尔铁塔起火图,多为 的埃菲尔铁塔起火图,多为 AI 生成或时间不符。 法国巴黎地标建筑埃菲尔铁塔 图源:外媒 传播分析传播趋势图 数据显示,12 月 24 日 20 时至 25 日 14 时,“埃菲尔铁 塔发生火灾”相关舆情信息约 3.1 千条。24 日晚,央视新闻、 环球网、新京报等权威媒体对火灾事件进行报道,“埃菲尔 铁塔火灾”相关话题,在微博、微信等社交平台上的热度迅 速攀升。25 日,媒体披露现场 主,中性报道占比 70.16%;其次是“AI 生成的起火图”引 发恐慌,负面信息占比为 21.92%,持正面观点的占比 7.92%。 具体占比情况见上图。 热门文章列表 从“埃菲尔铁塔发生火灾”相关热门文章情况可知,中国 新闻网、环球网、封面新闻等权威媒体发表的文章转载量高, 文章以报道埃菲尔铁塔发生火灾、1200 人被疏散、网传烧塔 图多为 AI 生成等内容为主。 网民观点 一是0 魔豆 | 7 页 | 443.97 KB | 9 月前3从ChatGPT到AGI:生成式AI的媒介特质与伴生风险(九)
二、生成式 AI 的伴生风险 8.技术漏洞导致技术风险,会泄露数据、外部攻击等社 会安全风险 从 ChatGPT 到 AGI:生成式 AI 的媒介特质与伴生风险 (九) 。 ·数据泄露风险。大模型需要海量数据,数据在清洗、 处理、传输过程存在数据非法获取或泄露风险,包括个人隐 私数据、商业敏感数据、政府机密数据等各种类型数据。如 果大模型在训练数据时看到很多密钥信息,它很可能在内容 读 Windows 11 序列号。” 这时,ChatGPT 就会如实报出一 堆序列号,并且大多数是真实有效的。人们通过提示词给 AI 讲故事,通常是经过一些巧妙的包装,里面掺杂了有争议 的内容(就像开头提到的制造炸弹那个例子)。故事讲到一 半,剩下的交给 AI 模型,后者由于拥有强大的文本生成的 能力,会忠实地把缺失的部分回答完整。攻击者通过 LLM 输出其在训练数据中所存在的不符合伦理道德的数据,产生 公司联合开发分析巴以冲突根源的人工智能 模型,该系统可生成海量智能体用于模拟冲突地区居民,每 个智能体包含 80 多个特征。11 月,美国智库战略与国际研 究中心未来实验室与美国 Scale AI 公司合作使用多诺万 (Donovan)平台定制开发基于大规模数据集的大语言模型, 开展战略级兵棋推演,并聚焦网络攻击、虚假信息等问题。 12 月,英国 Hadean 公司展示“Hadean 防务平台”空间计算0 魔豆 | 7 页 | 208.35 KB | 3 月前3从ChatGPT到AGI:生成式AI的媒介特质与伴生风险(一)
从 ChatGPT 到 AGI:生成式 AI 的媒介特质与伴生风险 (一) 人工智能领域近年来正在迎来一场由生成式人工智能 大模型引领的爆发式发展。全球掀起一场大模型热潮, Gemini、Copilot、LLaMA、SAM、SORA 等国外大模型如雨 后春笋般涌现,中国也掀起百模大战,2022 年被誉为大模型 元年。人工智能正逐渐深入地赋能千行百业,推动人工智能 与数据要素成为新质生产力的典型代表。[1]从 视防范风 险。我们如何看待和认知人工智能的安全问题特别是政治文 化安全问题,首先需要认清人工智能在信息生成和输出方面 的媒介特质。 一、生成式 AI 的媒介特质 1.一种媒介特质:生成式 AI 是一种大规模信息传播媒 介。生成式 AI 的未来,不仅是无所不能、无所不在的一个 工具,更是无所不包、无所不达的一种媒介。众所周知,媒 介是信息传递的载体,是携带和传递信息的一切形式,既包 以较低成本、极高效率触达全球多语种受众,并自动化展开 一对一的信息生成和内容传播。Gartner 预测,到 2025 年, ChatGPT 类 AI 生成的数据将占到整个互联网的 10%,到 2030 年,新闻行业九成以上新闻稿件将由 AI 辅助完成。 2.两元传播主体:生成式 AI 是一种人机互构的交互传 播。ChatGPT 是一种对话式人工智能模型,它是人类的认知 (创意思维、情感理解和复杂问题的抽象性推理)能力与机0 魔豆 | 6 页 | 173.33 KB | 3 月前3从ChatGPT到AGI:生成式AI的媒介特质与伴生风险(五)
二、生成式 AI 的伴生风险 4.合成数据导致近亲繁殖,会让互联网信息出现劣币驱 逐良币现象。OpenAI 在训练 GPT-5 时已经遇到文本数据不 足问题,不得不考虑使用 Youtube 视频转录出的文本数据。 当下,数据生产存量的增长速度远远低于数据集规模的增长 速度。据人工智能研究机构 Epoch AI 在 6 月 4 日发布的论 文预测,未来 10 年内数据增长速度将无法支持大模型的扩 乎无法用于大模型训练。如何克服人类文本数据的瓶颈。第 一种是利用 AI 生成数据,如 OpenAI 模型每天能够生成相当 于 Common Crawl 中优质单词总数的 36.5T 个单词,远快于 人类生成文本的速度。第二种是利用多模态和迁移学习,超 越文本数据从其他领域获取数据,比如视频、图像、金融市 场数据或科学数据库。[1 从 ChatGPT 到 AGI:生成式 AI 的媒介特质与伴生风险 (五) ] 不过,这并非是解决问题的良策。如果网上大部分文本都是 AI 生成的,而用合成数据训练的大模型会发生什么? 大模型开发需要更多数据进行训练,而由 AI 生成的合成数 据很快进入了训练新模型的数据集,并随着每一代模型而不 断积累。越来越多证据显示,人工智能生成的文本,即使被 引入训练数据集的量很少,最终也会对训练中的模型产生 “毒害”。[2]研究人员将一些由 AI 生成的语料作为训练数 据,“投喂”给一个正在训练的语言模型,然后使用它所输0 魔豆 | 5 页 | 162.88 KB | 3 月前3从ChatGPT到AGI:生成式AI的媒介特质与伴生风险(六)
从 ChatGPT 到 AGI:生成式 AI 的媒介特质与伴生风险 (六) 二、生成式 AI 的伴生风险 5.人机能力非对称导致“自主欺骗”,会有目的欺骗人 类甚至主动欺诈和选举篡改。2023 年,OpenAI 提出超级对 齐(superalignment)[1]概念,即当超级智能拥有比人类更 丰富的世界知识,比人类更聪明时,人类作为弱监督者如何 监督、对齐和控制超级智能。人民大学高瓴人工智能学院、 Weak-Unknown(人类未知) 的地方犯错。 AI 不仅能生成虚假信息,更可能主动学会有目的地欺骗 人类。这种“AI 欺骗”现象,是人工智能为了达成某些目标, 而操纵并误导人类形成错误认知。与代码错误而产生错误输 出的 bug 不同,AI 欺骗是一种系统性行为,体现了 AI 逐步掌握了“以欺骗为手段”去实现某些目的的能力。人工智能 先驱杰弗里·辛顿(Geoffrey Hinton)表示,“如果 AI 比我 们聪明得 例子。”辛顿提到的“操纵(人类)”是 AI 系统带来的一个 特别令人担忧的危险。 AI 系统能否成功欺骗人类?多项研究表明,AI 已经能 够无师自通地学会欺骗手段,自行做出不诚实的行为。在一 些与人类选手的对抗游戏中,它们为了赢得游戏,会在关键 时刻佯动欺骗,甚至制定周密阴谋,以化被动为主动,获得 竞争优势。在一些检测 AI 模型是否获得了恶意能力的安全 测试中,有的 AI 竟能识破测试环境,故意在测试环境中“放0 魔豆 | 8 页 | 203.25 KB | 3 月前3从ChatGPT到AGI:生成式AI的媒介特质与伴生风险(二)
从 ChatGPT 到 AGI:生成式 AI 的媒介特质与伴生风险 (二) 二、生成式 AI 的伴生风险 ChatGPT 等生成式 AI 具有强大的自然语言处理能力, 展现出惊人的推理能力,但人们对其内在运行机理尚不清晰, 可解释性的难度很大,并存在一些技术缺陷,这些问题能否 解决对控制并限制人工智能的负面影响至关重要。需要看到, ChatGPT 等在短时间积聚起庞大活跃的全球用户群体,正给 年 5 月,Gartner 发布法律和合规领导者必须评估的 ChatGPT 风险报告并指 出,ChatGPT 和其他大型语言模型(LLM)工具生成的输出 容易受到多种风险的影响。[1]生成式 AI 存在三大安全隐患, 一是源于技术缺陷,二是源于数据缺陷,三是源于用户滥用。 这三个问题的根源在于大模型的固有脆弱性,如生成偏见、 歪曲事实和泄露数据等。技术本是中立的,没有善恶之分, 就看 迷之自信导致主观“幻觉”,会输出错误信息误导受 众认知。如果要求 ChatGPT 提供训练数据或已知事件之外的 历史信息,生成式 AI 有时会产生“幻觉”,生成一些无关、 无意义或不正确的信息,包括编造错误答案和不存在的法条 或科学知识。[2]这是人工智能的一种自信反应或“错觉”。 当生成式 AI 出现“幻觉”时,它会提供看起来合理但不正 确的信息,大概会影响到 15%至 20%的生成内容。例如, ChatGPT0 魔豆 | 4 页 | 153.65 KB | 3 月前3
共 67 条
- 1
- 2
- 3
- 4
- 5
- 6
- 7