安全,一个与我们日常生活息息相关的话题。从我们出生到死亡,有一种力量始终保障着我们美好安全的生活,必要时也会成为我们反抗不公平的武器,这,就是法律。随着越来越多犯罪悬疑类题材的影视剧搬上大荧幕,公众也逐渐了解了更多法律背后的秘密,比如“司法鉴定”。那么,人工智能(AI)时代下,司法鉴定迎来了怎样的变革?
证据类型的变迁之路
根据司法部官网,司法鉴定是指在诉讼活动中鉴定人运用科学技术或者专门知识对诉讼涉及的专门性问题进行鉴别和判断并提供鉴定意见的活动。从主要类别来看,司法鉴定又分为法医类、物证类、声像资料、环境损害等四大类。
“从早期的图像、文书、声音,到现在的视频,甚至AI伪造视频、AI换脸检测”,已在安全检测领域深耕20余年的周琳娜,以自己的经历梳理出司法鉴定内容的变革历程。
事实上,针对AI技术伪造内容的安全检测出现之前,对待伪证的取证、鉴定便有过很多经典案例,最著名的就是2007年的“华南虎事件”。当时,陕西农民周正龙号称发现了华南虎,并且拍摄了41张电子照片。但内容一经发布后就有人提出了质疑,尤其是网友发现他家墙上挂的一张年画虎和他拍摄的华南虎长得一模一样,在网上引起了轩然大波。
2007年12月2日,来自六个方面的专家经过技术鉴定,给出了明确结论:年画中的老虎与华南虎照片里的是同一只老虎,事件终于水落石出。而周琳娜便是这六个方面的专家之一。

▲经过技术鉴定,周正龙拍摄的华南虎照片(左)和年画中的老虎(右)是同一只老虎(供图:周琳娜)
从基于“眼睛和经验”,到基于“智慧大脑”,周琳娜认为,AI技术的大规模普及,对于司法鉴定而言是一把“双刃剑”,同时带来了机遇和挑战。一方面,AI技术助力检测鉴定能力实现了大幅提升。“以前,我们要整理大量资料或者查阅文献,从头看到尾需要花费很长时间。而有了AI大模型,几百页的材料它可能几分钟就能学完并理解,进而生成简单的摘要。”
但与此同时,周琳娜也指出,AI技术被不法分子利用所带来的AI伪造,也存在极大的安全隐患。“随着AI技术的不断迭代升级,伪造内容也越来越逼真,为鉴定带来了很大的挑战。”她补充道。
眼见不一定为实
AI浪潮席卷的当下,多媒体内容安全逐渐走进大众视野。其中,尤以深度伪造技术带来的AI换脸、视频伪造最为典型。
2017年,一种名叫“DeepFake(深度伪造)”的技术在全球范围内大规模兴起,也就是我们现在常说的“AI换脸”。这种基于深度学习技术的人脸伪造技术,从流行之初引起公众的好奇到逐渐引起大众担忧,只花费了不到1年的时间。
2017年底,名为“deepfakes”的Reddit用户将《神奇女侠》盖尔·加朵的脸嫁接到成人电影女主角身上,将视频上传至网站,引起DeepFake全球范围内的流行。然而,就在2018年,BuzzFeed发布了国外政客的DeepFake演讲,便开始引起人们对身份盗用、假冒以及错误信息在社交媒体上传播的担忧。
关于深度伪造的类型,周琳娜归纳了主要的四种,分别是人脸交换、表情迁移、背景迁移和姿势转换。她进一步对各种类型进行了详细解读。“人脸交换是目前诈骗分子用得比较多的伪造手段,比如把受害者亲人的脸换到一段诈骗视频上;或者通过换声音进行电话诈骗等。”而人脸操控则通过Wav2Lip等典型技术实现对视频中人物面部表情的操控。此外,在公安机关公布的一些案例中,还存在背景迁移的情况。比如案件可能是晚上发生的,视频证据却显示在白天,其实就是不法分子替换了关键时间节点,想偷梁换柱从而脱罪。
在此基础上,又出现了一种“更加高级”的技术——AIGC(生成式人工智能)。“基于迅猛发展的AIGC技术,‘造假’变得更加方便。”周琳娜表示。以往深度伪造几种类型的实现,需要经过大量的数据训练;而AIGC让“无中生有”成为可能。其能够在不需要原始内容、目标对象的情况下,虚拟一个完全不存在的人,去实现指定的动作和特定的目标。
安全的破局之道
AI技术正以前所未有的速度,重塑社会生产生活格局。面对技术飞速发展带来的负面影响,我们该如何破局?如何在AI浪潮下更好地保障个人安全,周琳娜分享了一些经验做法。
“对于上述提到的深度伪造的几种类型,比如AI换脸、表情迁移等,是可以通过仔细观察细节进行辨别的。”她表示。比如,训练者在训练数据时输入的照片/视频中缺少特定动作,如眨眼、闭眼等,那么生成的视频呈现就会不自然,缺少眨眼的动作。此外,如果输入的照片/视频的分辨率比较低,生成的视频也会存在细节上的瑕疵。比如两只眼睛的瞳孔颜色不一致、牙齿的边缘过于整齐或细节不明显,甚至存在伪影等。
“而针对AIGC等更高级别的‘伪造’,则要依赖专业的工具或者以‘AI对抗AI’的形式加以辨别。”周琳娜表示。
她进一步分享了目前已有的深度伪造取证技术,包括图像像素层统计取证,比如篡改图像经过二次JPEG压缩,篡改痕迹被大大减弱,但引入了新的痕迹——DCT系数量化效应,可以通过AI工具进行检测。以及三维场景层建模取证,即基于三维光照环境模型的篡改取证。还有语义层多线索关联取证,比如将语义标准化后,至少有一个与NR中的语义规则不匹配,至少有一个与AR中的语义规则匹配,则图像被认为被篡改。
“魔高一尺道高一丈”,在周琳娜看来,科技就像我们的工具,本身是没有好坏的,关键看用它的人如何使用。
用好“AI武器”
虽然AI技术带来了众多安全隐患,也让社会各方面多领域面临着前所未有的挑战,但在周琳娜看来,大家仍然应以开放的态度拥抱AI,并学会用好AI工具。
“要辩证地看待AI技术的发展。”周琳娜认为。AI的出现并不是为了造假,只是被不法分子所利用。因此,公众在使用AI工具,或者面对疑似AI生成内容时,首先应保持警惕,通过相关手段加以辨别;此外,学会充分利用或者研发相应的检测和辨别手段来与AI造假抗衡。她进一步指出了青少年在这一过程中的重要作用,学会用好AI技术为人类社会造福,可能是青少年未来需要肩负起的社会重任。
“AI发展这件事不是任何人可以阻止的。我们应该顺应时代的潮流,以开放的心态直面AI技术的发展,并从中找出新的机遇。”周琳娜表示。
她以自己的见闻分享了一些社会上存在的焦虑。“在与一些法学生的交流中,他们会觉得,我读了很多法律的文书,但是AI一出现,可能2小时就学完了比他们4年上学都多的书。”此外,在判例方面,AI工具也能做到引经据典,快速锁定相关法条。“学生们对此十分焦虑,觉得与AI相比自己并不具备较强的竞争优势。”
但在她看来,如果能学会用好AI工具,恰恰会更具竞争优势。周琳娜举例道,有的检察院已经引入了不同领域的AI大模型,通过AI来实现民意诉讼、公益诉讼等案件的追查功能,大幅提升了工作效率。“这在以往都是没法想象的,但实实在在地发生了。”周琳娜表示。对此,她建议,应该多往前想一步,如何用好AI工具,而不是把AI视为竞争者想着怎么“干掉它”。
AI工具的出现为我们的生活带来了极大的便利,与此同时,使用AI工具的门槛也在逐渐降低。面对这种情况,周琳娜提醒,未来的发展机遇应该存在于研发适用于不同领域的AI大模型或工具。她进一步建议青少年,如果未来想从事AI领域的研发工作,要留心学习相关领域的知识,成为跨领域的复合型人才,实现自身优势的最大化。
以古喻今,我们无法因为汽车的发明抢了马车夫的工作就否定甚至排斥汽车,以及其带来的变革。“任何一种新技术/工具的出现,某种程度上一定会替代某些工种。在这种情况下,人类应该去探索一些更有意义的事情。”周琳娜表示。与此同时,解放出来的生产力不应该被浪费,而应该投入更能促进人类社会发展的事情中。
“比如现在,我们不应该想着去跟AI争饭碗,而应该考虑如何更好地挖掘自身优势,用好‘AI武器’,在AI浪潮中勇往直前。”周琳娜表示。
来源:北京科技报
采访专家:周琳娜(北京邮电大学网络空间安全学院教授)
撰文:记者 贾朔荣
来源: 北京科技报
科普中国公众号
科普中国微博

帮助
北京科技报 