人机共生,是科幻作品永恒的主题。其中,《冥王PLUTO》可能是最早探讨人类与机器人如何在冲突中共存的漫画作品。
如果说阿童木是人机共生的“和平使者”,启蒙了几代人对机器人的信任和热爱,那么冥王PLUTO就是阿童木的反面,一个心怀仇恨的杀戮机器。在《铁臂阿童木》的番外篇《地上最大机器人》中,名叫冥王PLUTO的超级机器人,要挑战阿童木在内的全球七大机器人。
这个故事,后来被浦泽直树进一步改编,以更大篇幅和笔墨,描画了人机共存的种种矛盾冲突。
最近,冥王PLUTO的故事被奈飞搬上了屏幕,动画《冥王PLUTO》上线即爆款,豆瓣开分9.1,IMDb开分9.3,口碑如潮。
虽然这部动画的主题,是老生常谈的“人机共生”,但在2023年观看,却别有一番滋味。
这一年,大模型的“智能涌现”展现出了类人级别的推理能力,具身智能让科幻电影中的人机共存加速到来,AGI的实现也不再是遥不可及。
与此同时,大模型和AGI所暴露出的冲击和危险,也渐渐浮出水面。有画师们联名反对AI学习自己的作品,OpenAI政变原因之一就是科学家对“AI失控”的担忧,而中美AI竞争也掀起了一轮轮博弈。
也别忘了更大的世界,很多地区正在陷入动画《冥王PLUTO》中中东战争类似的战火阴霾之中。
我们所在的现实世界,正在不知不觉地跨越奇点。在不远的未来,人机共生会是一幅怎样的画面呢?AI会像冥王PLUTO一样被用来杀人吗?我们是否做好了准备,去迎接一群“十万马力”的超级智能机器人呢?
不妨带着童年看阿童木动画片一样的好奇心,和我们一起开开脑洞吧。
杀戮机器觉醒?又一次“狼来了”
避免剧透,一句话给大家总结一下动画《冥王PLUTO》的剧情——机器人在宇宙的中心呼唤爱。
在人类和机器人共同生活的未来,机器人拥有了和人一样的感情和思维能力,可以与人建立幸福的家庭。而数次离奇的谋杀,掀开了人机共存的隐藏矛盾:机器人产生了仇恨的情绪,于是愤怒地举起了枪……
看到这里,你是不是觉得这故事好熟悉?
有大量科幻作品都是这样的:遥远的3xxx年,人类社会的科技水平高度发展,人工智能无处不在,某一天机器人像《西部世界》中德洛丽丝那样意识觉醒,发现人类对自己各种欺压,于是开始抗争和复仇。
机器人意识觉醒,成为人类不可掌控的威胁,几乎是所有“科技鬼故事”的必备设定。不过,冥王PLUTO不过是又一次“狼来了”。
首先,即使实现了AGI强人工智能,智商和意识也不是一码事。在很长一段时间内,智能机器依然只能通过声音、面部表情、姿态等,模拟人类的情感表达,并不是真的拥有情感体验。更何况,我们距离强人工智能还有不短的距离,最近一项针对GPT-4的图灵测试中,得分远不及人类。对“机器意识觉醒”的恐惧,不过是又一场“恐怖谷效应”。
其次,万一的万一,机器人真的产生了意识,就一定会是恶的吗?显然不是。正如阿童木和冥王PLUTO是两个对立阵营,机器人的行为特征也分“善”和“恶”。凭借今天我们对AI技术的了解,以及目前人类和机器人的关系,恐怕机器人并不会感到“被人类威胁”吧,自然也就不太可能成为什么人类杀手或机器人反叛军团之类的。正如《流浪地球2》《冥王PLUTO》等最新科幻作品中,机器人的威胁大多源于网络漏洞、人类的恶意操作,以及算法为了让人类延续下去计算出来的结果“好心办坏事”。
每当能力卓绝的智能体问世,比如ChatGPT,关于机器“超智能”的神话就会出现秀智商,叫卖“机器智能会超过人类智能”“机器会取代人类”之类的观点。显然,这些观点都是站不住脚的,再强大的机器也不足以战胜人类的智慧。
只不过,人们总是喜欢相信惊心动魄的故事以及想象中的危险。换个角度想,这种对危险的敏感本能,或许就刻在人类野外求生的DNA中。所以,从“狼来了”到“杀戮机器觉醒”,这种故事始终会让人乐此不疲,换个主角就能重来。
被掩盖的真问题:高度共生的社会危机
当人们都在热议智能机器觉醒的假象风险,也许把真正的危险掩盖住了,而这些真正的风险,才是人机共生的问题所在。
大模型的到来,正在让机器从自动化系统发展成为高度自主系统。
所谓自动化系统,类似扫地机器人、恒温控制器,只需要在可控的环境下,根据固定的目标,执行设定好的任务。而家政机器人、自动驾驶汽车等具身智能,显然就没这么简单了。它们需要在动态变化的物理环境下,准确及时地检测到障碍物,并实时做出恰当的决策和相应的行动,这些高度自治的自主系统,显示出了与人类相似的智能。大模型正在让自主系统的具身智能,变成现实。
听起来很美好,但这个人类和自主系统共生的未来,可能存在安全隐患:
1.算法黑箱。AI拥有“暗知识”,无需借助理论或数学分析,就可以做出决策,在地震预测、天气预测等方面做得比人类专家更好。但AI并不是真的理解了背后的科学原理和数学模型,如果关键系统不可靠,在生产环节就难以保证安全。比如设计一架飞机的自动驾驶系统,使用数学模型是白盒的,可以很有把握符合安全标准,而算法的黑箱性不能保证足够的安全可靠。
2.失业问题。自动化程度越高,机器人使用越普遍,失业率就越高。不是所有马车夫都能学会开汽车,许多被自主系统替代的工作岗位是不会再回来的,而需要创造力、难以被AI替代的职业,比如编程、艺术创作,只能为少数人提供工作机会。职业结构的变迁,一定会带来失业阵痛,同时阻碍AI产业的发展。这一年来大量画师对AIGC的反对和抗拒,就是明证。
3.技术依赖。对于大部分人来说,AI应用和机器人的到来,一定会让生活变得更加舒适。比如自动配送外卖车、酒店服务机器人,就大大减少了人工劳动。ChatGPT帮助学生们做作业、写论文。这也意味着,人类会逐渐丧失某些技能。比如唐诗宋词,未来的孩子可能再也不需要背诵它们了,机器人将东西无微不至地送到手边,人的日常活动量也随之减少,带来肥胖等隐患。随着算法预测越来越精准,我们会逐渐依赖AI做决策,而不是倾听身边普通人的建议和自己的感受与直觉,而决策-行动-反馈的整个正向机制,也被打断了,让人越来越缺乏自信。人机共存就是“温水煮青蛙”,对技术的过度依赖,并非杞人忧天。
4.政治冲突。还有一种潜在威胁,来自各国政府和企业组织的猜忌与博弈。对智能技术的管控已经是一个政治问题了,而智能技术为核心的科技竞赛,正在掀起类似冷战时期的政治博弈。
《纽约客》杂志2023年11月20日出版的一篇文章《Why the Godfather of A.I. Fears What He’s Built》(人工智能教父为何害怕自己的成果)中,图灵奖得主杰弗里·辛顿(Geoffrey Hinton)直言:“我们不知道人工智能会变成什么样子。”但当记者问:“为什么不直接拔掉插头呢?”辛顿回答:“因为不同国家之间的竞争。”而此前,他曾拒绝签署一份呼吁暂停研究人工智能至少6个月的请愿书,并表示:“中国可不会停止研发6个月”。有理由相信,出于政治博弈的考虑,某些政府、企业或科学家,会对人工智能的风险,干脆放任自流。
从人类自治迈向机器自治的人机共生社会,运行机制都要随之变化。或许不会直接导致杀害等灾难,但对就业、文化、政治秩序的冲击,同样会产生安全隐患。
从此刻,掀开“潘多拉魔盒”
你可能会问,既然发现了真正的风险,是不是就能提前做出防范,减少人机共生的摩擦?
从技术层面和社会层面,这个愿望都不太现实。
技术层面,AI不同于人类历史上任何技术风险的。作为一种自主学习、自主进化的算法,AI需要不断咀嚼大量数据,进行复杂的内部转换和“无监督学习”,其中的规律和隐秘Bug可能都不是人类工程师能及时捕捉到的。我们经常听到程序员讲一个段子:如果一段程序能跑能work,那就千万不要动它,不要想清理“屎山”。所以,人类未必能够将AI成长捏在自己的手心里。就像一年之前,谁能想到ChatGPT会“智能涌现”,并让整个世界天翻地覆呢?
社会层面,目前主流国家应对危机的方法,往往不是“事前预防”,而是“动态平衡”。事前预防,需要提前对“最坏情况”做出评估,然后进行防御性投入,成本是非常高的,一般只会在医疗、自然灾害、战争等方面采用。而强人工智能的风险,危急程度并不算高,甚至有人调侃“关键时候把AI电源拔了”,所以这种危机的防范就要考虑成本收益比,不会牺牲收益最大化,追求绝对安全,而是在经济和安全之间,寻找一个动态平衡点。而这种“动态平衡”的问题,则会让一些脆弱群体,置身于较大的风险之中,比如重复劳动的工人、底层白领、简单知识生产者等,面临被取代的压力。
大模型这条AI之路,正在掀开AGI强人工智能的“潘多拉魔盒”,会放出冥王PLUTO还是阿童木,抑或兼而有之,还是未知数。
既然人类和机器人高度融合共生的社会必然会到来,我们又该依靠什么保持乐观和信心呢?我想,《冥王PLUTO》或许已经给出了答案,那就是“爱”。
人性的种子,会顽强地在战火和焦土中萌芽,一次又一次重建新世界。
来源: 脑极体