以前我们都说“有图有真相”
但随着AI的发展
有图也未必有真相
过去半年,AI生成的谣言
从文字到图片到视频
以近乎工业化生产的模式泛滥
形成“谣言→AI引用→更多谣言”的传播链条
年初,达沃斯世界经济论坛发布的
《2025年全球风险报告》
将“错误和虚假信息”
与武装冲突、极端天气、
经济对抗和社会极化
列为2025年全球面临的五大风险
AI正在成为制造
和放大错误和虚假信息的重要一环
一些网民通过AI凭空杜撰
另一边,AI幻觉与一些人的盲信交织
加剧了谣言的破坏力
新疆拜城县发生地震时期,造谣者利用AI技术手段发布虚假信息误导公众。
虚假信息不仅误导消费者
还可能对社会秩序、国家安全
甚至人民群众的生命财产安全构成威胁
如何破解AI幻觉技术难题
从源头打击谣言
避免人工智能成为造谣帮凶
构建多维度治理体系
正成为当下网络舆论社会治理的新命题
“伪造”
AI谣言正在批量生产
近半年来,AI的生成能力多次被注入“谣言生产线”。AI工具的低门槛滥用让谣言制造呈现工业化、专业化趋势。
在自然灾害方面,利用AI制造的谣言成为恐慌放大器。
2025年1月7日,西藏定日县发生6.8级地震,而一系列“小男孩被埋图”在互联网平台广泛传播,并配文日喀则地震等关键词,引发大量网民关注。
鉴于该图片存在明显AI生成痕迹,如图中的小男孩有6根手指,虚假图片很快就暴露了。
但在这之后,一出现自然灾害,AI谣言常常相伴而生。由于AI工具的发展日新月异,相关图片的“真实度”也越来越高。
3月初,广东出现强对流天气,多地下起了冰雹。但在一些网络平台,有网民发布了“冰雹比鸡蛋还大”“冰雹砸坏汽车”“冰雹砸垮了房屋顶棚”等图片,并配文“广东多地最近下冰雹”。
经核实,这些图片均为通过AI制作生成的虚假图片,其画面明显夸大了灾情。
“AI冰雹图片”的谣言过去还没两天,2025年3月5日,新疆阿克苏地区拜城县发生4.5级地震,震后仅3小时,某短视频平台便出现“已致3人死亡、65户房屋倒塌”的谣言,配以AI拼接的房屋坍塌图片和方言配音的“灾民呼救”视频。
经核查,这是造谣者利用AI技术手段拼接网络旧图,发布与此次地震不符的图文、音视频等虚假信息误导公众。实际上,经当地政府全面摸排,此次地震未造成人员伤亡和财产损失。
新疆拜城县发生地震时期,造谣者利用AI技术手段拼接网络旧图,发布虚假信息误导公众。
除自然灾害领域的谣言外,AI的“理性气质”也越来越多被用来包装成反常识的“科普类”谣言。
警惕AI生成网络谣言,
切勿让“神器”变“凶器
AI技术正在逐渐改变我们的生活方式,提升工作效率,为解决许多问题提供途径。但与此同时,个别别有用心之人在利用AI技术时走向了迷途……造谣者借助AI 工具,生产仿真度高的虚假信息。
!警惕!AI被用来“造谣”
典型AI谣言场景
伪造热点事件
用AI生成“某地重大事故”图文/视频,配煽动性标题博流量。
捏造名人言论
篡改语音、合成视频,假借权威人士发布虚假政策解读。
炮制伪科普
利用AI生成“科学数据”,兜售伪劣产品(如“AI检测抗癌神药”)。
嫁接虚假证据
将无关图片通过AI换脸/换背景,捏造“维权证据”“聊天记录”。
四步识别AI谣言
不当“受害者”更别当“帮凶”
1查源头
警惕无明确作者、无正规信源的内容,AI生成信息常伪装成“网友投稿”“内部消息”。
2看细节
AI图像:观察手指数量异常、光影不自然等;
AI视频:注意口型与声音不同步、背景模糊扭曲。
3验逻辑
AI生成谣言常出现时间矛盾(如“2024年政策”引用2025年数据)、地名错误等。
4用工具
关注“公安部网安局”新媒体账号打谣信息,或通过“中国互联网联合辟谣平台”“腾讯较真”等渠道一键验证。
真实案例
近日,西安公安网安部门工作查明,一网民利用AI生成软件将一起多年前发生于外地的旧闻进行重新编辑,通过输入指令制作文案,将其包装成本地近期发生的事件,文案多处通过添油加醋的笔法虚构事实真相,以达到博取流量的目的,造成谣言传播扩散。目前,属地公安机关已依法给予该网民行政处罚。
网警提示
01.严守法律红线
不利用AI伪造公文、证件,不生成谣言、暴力等违法信息。
02.抵制AI谣言
遇所谓“爆炸性新闻”做到“三不”:不轻信、不转发、不扩散。通过官方平台验证信息,发现AI谣言立即举报,保存证据协助溯源。
03.共担监督责任
主动标注AI生成内容,人人争做“谣言粉碎者”,共同维护清朗网络空间。
技术向善,始于你我。让我们以理性驾驭AI,用法律守护底线,携手传递正能量!
来源: 南方日报、公安部网安局、江西宣传