以前我们都说“有图有真相”
但随着AI的发展
有图也未必有真相

过去半年,AI生成的谣言
从文字到图片到视频
以近乎工业化生产的模式泛滥
形成“谣言→AI引用→更多谣言”的传播链条

年初,达沃斯世界经济论坛发布的
《2025年全球风险报告》
将“错误和虚假信息”
与武装冲突、极端天气、
经济对抗和社会极化
列为2025年全球面临的五大风险

AI正在成为制造
和放大错误和虚假信息的重要一环
一些网民通过AI凭空杜撰
另一边,AI幻觉与一些人的盲信交织
加剧了谣言的破坏力


新疆拜城县发生地震时期,造谣者利用AI技术手段发布虚假信息误导公众。

虚假信息不仅误导消费者
还可能对社会秩序、国家安全
甚至人民群众的生命财产安全构成威胁

如何破解AI幻觉技术难题
从源头打击谣言
避免人工智能成为造谣帮凶
构建多维度治理体系
正成为当下网络舆论社会治理的新命题

“伪造”
AI谣言正在批量生产

近半年来,AI的生成能力多次被注入“谣言生产线”。AI工具的低门槛滥用让谣言制造呈现工业化、专业化趋势。

在自然灾害方面,利用AI制造的谣言成为恐慌放大器。

2025年1月7日,西藏定日县发生6.8级地震,而一系列“小男孩被埋图”在互联网平台广泛传播,并配文日喀则地震等关键词,引发大量网民关注。

鉴于该图片存在明显AI生成痕迹,如图中的小男孩有6根手指,虚假图片很快就暴露了。

但在这之后,一出现自然灾害,AI谣言常常相伴而生。由于AI工具的发展日新月异,相关图片的“真实度”也越来越高。

3月初,广东出现强对流天气,多地下起了冰雹。但在一些网络平台,有网民发布了“冰雹比鸡蛋还大”“冰雹砸坏汽车”“冰雹砸垮了房屋顶棚”等图片,并配文“广东多地最近下冰雹”。

经核实,这些图片均为通过AI制作生成的虚假图片,其画面明显夸大了灾情。

“AI冰雹图片”的谣言过去还没两天,2025年3月5日,新疆阿克苏地区拜城县发生4.5级地震,震后仅3小时,某短视频平台便出现“已致3人死亡、65户房屋倒塌”的谣言,配以AI拼接的房屋坍塌图片和方言配音的“灾民呼救”视频。

经核查,这是造谣者利用AI技术手段拼接网络旧图,发布与此次地震不符的图文、音视频等虚假信息误导公众。实际上,经当地政府全面摸排,此次地震未造成人员伤亡和财产损失。


新疆拜城县发生地震时期,造谣者利用AI技术手段拼接网络旧图,发布虚假信息误导公众。

除自然灾害领域的谣言外,AI的“理性气质”也越来越多被用来包装成反常识的“科普类”谣言。

警惕AI生成网络谣言,
切勿让“神器”变“凶器

AI技术正在逐渐改变我们的生活方式,提升工作效率,为解决许多问题提供途径。但与此同时,个别别有用心之人在利用AI技术时走向了迷途……造谣者借助AI 工具,生产仿真度高的虚假信息。

!警惕!AI被用来“造谣”

典型AI谣言场景

伪造热点事件
用AI生成“某地重大事故”图文/视频,配煽动性标题博流量。

捏造名人言论
篡改语音、合成视频,假借权威人士发布虚假政策解读。

炮制伪科普
利用AI生成“科学数据”,兜售伪劣产品(如“AI检测抗癌神药”)。

嫁接虚假证据
将无关图片通过AI换脸/换背景,捏造“维权证据”“聊天记录”。

四步识别AI谣言
不当“受害者”更别当“帮凶”

1查源头

警惕无明确作者、无正规信源的内容,AI生成信息常伪装成“网友投稿”“内部消息”。

2看细节

AI图像:观察手指数量异常、光影不自然等;

AI视频:注意口型与声音不同步、背景模糊扭曲。

3验逻辑

AI生成谣言常出现时间矛盾(如“2024年政策”引用2025年数据)、地名错误等。

4用工具

关注“公安部网安局”新媒体账号打谣信息,或通过“中国互联网联合辟谣平台”“腾讯较真”等渠道一键验证。

真实案例

近日,西安公安网安部门工作查明,一网民利用AI生成软件将一起多年前发生于外地的旧闻进行重新编辑,通过输入指令制作文案,将其包装成本地近期发生的事件,文案多处通过添油加醋的笔法虚构事实真相,以达到博取流量的目的,造成谣言传播扩散。目前,属地公安机关已依法给予该网民行政处罚。

网警提示

01.严守法律红线

不利用AI伪造公文、证件,不生成谣言、暴力等违法信息。

02.抵制AI谣言

遇所谓“爆炸性新闻”做到“三不”:不轻信、不转发、不扩散。通过官方平台验证信息,发现AI谣言立即举报,保存证据协助溯源。

03.共担监督责任

主动标注AI生成内容,人人争做“谣言粉碎者”,共同维护清朗网络空间。

技术向善,始于你我。让我们以理性驾驭AI,用法律守护底线,携手传递正能量!

来源: 南方日报、公安部网安局、江西宣传