“特朗普爱上白宫保洁”?AI造谣新高度,连官媒都中招了!

特朗普爱上白宫保洁

2025年初,一部名为《特朗普爱上白宫保洁》的短剧在海外社交平台爆火,仅用三个月便斩获1.5亿美元的收益。不少中文媒体纷纷转发该报道,结果这不是什么真人秀,也不是特朗普的狗血情史,而是AI 生成的虚假新闻,一些博主为了获取流量疯狂转发,甚至一度让部分主流媒体误信,可见这场AI生成谣言泛滥的程度有多严重!

AI 造谣泛滥,比你想象的严重的多

去年网络上AI生成虚假内容增加了300%!

2024年的一项研究发现,现在整个互联网流量里,有四分之一来自恶意聊天机器人。这些聊天机器人干的事儿五花八门,从散播谣言、抢票到窃取个人信息,它们伪装成人类的能力越来越强。比如,社交平台上那种“白菜包裹的婴儿照”的AI生成图,看起来好像没什么坏的影响,但实际上AI背后往往链接着一些真假难辨的营销账号。这些账号背后运营者的目标很简单:吸粉、增值,最后把账号高价转手卖掉。

AI本身是基于网络内容进行训练的。当虚假、情绪化的内容占据主导时,AI“学”出来的,也将越来越偏离真实,变成制造垃圾信息的循环机器。

从搞笑短剧到情绪收割,AI“造谣力”在升级

如果说“特朗普恋上保洁员”还算是轻度误导,那2024年日喀则地震期间疯传的AI图片,就属于典型的“情绪收割型谣言”。

地震发生后,一张“废墟中戴帽小孩”的图片迅速在社交平台上扩散,配文“祈福日喀则”引发海量转发、留言。但1月8日,微博热搜词条“地震废墟中戴帽小孩图片是AI生成”将真相揭开:这张图早在2024年11月就由AI创作发布,原图中明明标注了“AI生成”,却在传播中被人为抹去标签,并强行贴上“灾难现场”的标签,借真实事件炒作、博取眼泪和关注。

南都大数据研究院不完全统计,2024年热度最高的50个国内AI风险舆情案例中,超过20%与AI造谣有关

ai造谣

AI造谣,套路多,辨别难

为了让你更清楚这些AI造谣手段,我们做了一个简单的对比表

类型特点案例风险点
拼贴型造谣将AI生成图与真实事件拼接,混淆视听戴帽小孩地震图利用真实事件引发情绪共鸣
无中生有型AI自动生成图文/视频捏造新闻“好莱坞山火蔓延”AI视频地点、事件皆虚构,迷惑性强
批量生产型利用AI工具快速生成成千上万条谣言牟利江西王某江MCN事件利用系统性运作扩大影响力

为什么连官媒也会中招?

在“特朗普保洁剧”这类轻松题材中,很多媒体未能第一时间验证内容真实性,加之AI生成视频图像越来越逼真,导致“看上去像真事”的误判频频出现。

这背后,其实暴露出几个治理难题:

  1. AI内容难以追溯源头:内容广泛搬运、二次编辑后,原始“AI生成”标签容易消失;
  2. 传播节奏快于核实速度:一旦形成舆论场景,辟谣再快也“追不上第一条爆款”;
  3. 公众AI素养偏低:很多人尚不具备识别AI生成内容的基本能力;

面对网络AI谣言,我们如何防范

面对AI带来的虚假信息,可以从三方面入手:

  • 建立AI内容溯源、标注机制,对AI生成图文、视频设置显著提示。尤其在灾难、公共事件中,平台必须优先核实来源,而不是优先流量。但这也意味着政府需要出台强有力的监管措施,因为在“流量为王”的逻辑下,平台往往更看重点击率,而非信息质量。
  • 提升自身的防范意识,学会识别虚假AI图文、视频。例如留意图像背景是否模糊不清、是否有标注水印、是否仅有少数账号发布等。
  • 强化监管合规。欧盟的《人工智能法案》2024年8月1日正式生效。 某些AI生成的内容,包括深度伪造技术,必须标注说明,在使用生物识别分类或情感识别系统时必须告知用户。 中国也正在加快相关立法,未来“AI造谣”的代价必将更高。

别让AI谣言成为信息社会的常态

AI技术本是一种效率工具,但当它被滥用来制造幻觉、操纵情绪、换取流量时,我们每一个人都可能沦为被收割的对象。《特朗普爱上白宫保洁》已经不是个例,我们要时刻警醒,AI 内容正在蚕食信息世界。

滚动至顶部
Baidu
map