点开你的微信里“相亲相爱一家人”的群聊,是不是常被长辈们转发的“神奇”视频刷屏?那些会颠勺炒菜的猫咪、会跳舞的狗狗,看得人忍俊不禁又隐隐不安——它们大多并非真实,而是AI精心合成的产物。更令人揪心的是,这类换脸技术已被骗子盯上,有人因轻信视频中“亲人”的求助面孔,损失了巨额钱财。
为什么长辈们特别容易上当?除了对人工智能内容生成(AIGC)技术不够了解,更反映出AI造假内容已经泛滥到防不胜防的地步。
一、不仅是“P图”,而是“生成” 我们常说“P图”“剪辑”,指的是在已有图像或视频素材上做修改,比如拼接画面、修复瑕疵。而生成式人工智能AIGC(Artificial Intelligence Generated Content)技术的核心特点在于——它不是对输入内容进行显式的修改,而是“从零生成”。在视频生成方面,AIGC常见的方式包括以下几种:
01文本生成**/**编辑视频 AI模型通过“理解”作为提示词的一段文字描述(如“一只猫带着厨师帽做饭”),基于从庞大的训练数据中提取的相关图像、动作和视觉等隐含知识,合成出符合逻辑的连续画面;还可以根据特别设计的提示词修改、编辑视频中的指定内容,如将视频中正在跳舞的人“自然”地换成以人的姿态跳舞的狗,同时保持画面中其余内容不变。这些过程不再是对现有视频进行简单的编辑与拼接,而更像是在“从无到有”地编造画面。
来自Open AI
02****人脸合成与换脸 这一技术旨在将某人的面部“迁移”到另一段视频中,在强大的算力与模型的支持下,甚至能够对视频进行低延迟、高拟真的换脸:例如,将一个诈骗者的脸替换成“家属”或“领导”,与受骗者进行实时的视频通话。这类视频的嘴型、表情等面部特征能够非常自然地契合被替换的人脸,普通人仅凭肉眼几乎无法识别其是否为AI合成。
03虚拟人**/数字人** AI还可以驱动虚拟人物**“开口说话”**。即便这个人是由AI生成的,其在现实生活中并不存在,也可以生成以假乱真的“新闻播报”“直播带货”等“声情并茂”的视频。
新华社AI合成主播“新小微”播报新闻中
图片来源:新华社微信公众号
二、AIGC视频为何难以识别?老年人为何更易受骗?**** 1. 技术上,AI生成内容越来越“自然”,但验证机制尚不健全: 合成的视频内容流畅,人、物、光影等细节日趋真实,难以察觉瑕疵;
图像+语音+文本+动作等多模态信息的有机融合提高了欺骗性;
视频内容可以根据生成其时特别设计、使用的提示词,使其更加具备**“情绪诱导性”**——可爱、煽情、急迫,继而更易激发情感反应。
2. 认知上,老年人与年轻人在以下方面存在明显差距: “视频等于真实”的传统观念:相比于图像,习惯将视频视为更加真实、客观的记录,缺乏对AI生成机制与能力的基本认识;
信息筛选能力弱:面对短视频平台等的大量推荐内容,缺乏辨别内容真实性的能力和习惯;
情感驱动判断:尤其在面对亲人面孔、孙辈求助、家庭场景时,更容易受感情因素影响而忽视其中存在的逻辑漏洞。
三、年轻人如何帮助家中长辈识别和防范? 1. 建立基本认知:“不是所有视频都是真实拍摄的” 通过演示几段AI生成视频,解释“这些并不是拍出来的,而是AI合成的”。帮助父母建立起**“视频也能造假”**的基础认知。
2.讲清楚AI“生成”与“修改”的差别 和以前“修图/P图”不同,现在的AI可以基于输入的提示词自己“想象”画面,就像人编故事一样,生成任意的、以假乱真的视频内容。
3. 教授可疑视频识别技巧 虽然技术难以完全识别,但部分AI视频仍可能暴露以下特征:嘴型与声音略有不同步;背景模糊不清或逻辑不通;人脸边缘闪烁、眼神空洞;人物动作不自然或手、手指重复;情节中出现“快转账”、“加好友”相关的说辞或强暗示;一旦出现陌生人、亲属急事求助,必须电话核实。同时帮助父母安装并学习使用国家反诈中心App等工具。
4.保持沟通 父母容易受骗,往往不是“愚钝”,而是“相信”。子女应避免训斥与过激的言语,应鼓励他们多问多确认,让信息防线建立在亲情与信任之上。
在这个AI与人类同行的时代,真假交织的画面或许会模糊我们的双眼,但永远无法模糊家人相握的掌心。技术可以复制影像,却复制不了餐桌上分享见闻时的会心一笑;算法能生成声音,却替代不了孩子教长辈辨别真伪时那份耐心的温柔。
当我们教会父母识别AI合成的假新闻,其实是在编织一张更有韧性的亲情网络——**用年轻人的数字敏锐守护家的港湾,用长辈的生活智慧锚定爱的真实。**这不仅是技术的攻防战,更是一场关于如何在这个虚实交错的世界里,让科技成为连接心灵的桥梁而非屏障的温暖修行。
本文原创,如需转载,请注明出处并联系我们。
来源: 天津科学技术馆