2024年2月,加拿大航空公司由于其人工智能客服为乘客提供错误的优惠购票流程,造成当事人经济损失,被告上法庭。法庭判决加航赔偿当事人差价及诉讼费。
值得关注的是加航的抗辩理由,判决书写道:“实际上,加拿大航空公司认为聊天机器人是一个独立的法律实体,应对自己的行为负责。 ”法官则认为:"虽然聊天机器人具有互动性,但它仍然只是加航网站的一部分……对于加航来说,显而易见的是,它要对其网站上的所有信息负责……信息是来自静态页面还是聊天机器人并无区别。”
实际上,与人工智能有关的不少案件争论点都可以追溯到“主体性”问题,比如2023年11月北京的“AIGC第一案”,也有律师认为人工智能主体性问题存在争议;还有以强人工智能是否为刑事主体的研究……人工智能的主体性认定是实现人工智能治理难以绕过的话题。
目前为止,人工智能相关案件的判决基本体现了法官对“人工智能是法律主体”观点的否定,但笔者希望通过本文建立对人工智能主体性的认定标准,以及人工智能产品造成损害时的侵权归责的认定流程,并一窥人工智能法律治理的可能路径。
人工智能是不是法律主体?根据我国《民法典》,人工智能不是自然人(无生命),也不是法人和非法人组织(非组织),自然不是《民法典》中调整的“平等主体”,故也不可认为是“无民事行为能力人”(这是自然人的一种)。
请想象这一情形:甲诱导AI生成对乙的诽谤信息,并令AI在网上公开。乙起诉甲侵犯名誉权,甲辩称诽谤信息不是其本人所作,而是AI生成并发布,应由AI承担侵权责任。
这种辩驳当然是站不住脚的,但引发我们思考:在本案中,行为人是甲还是AI?当AI纯粹作为甲的工具以实现其侵权行为时,显然甲是真正的行为人,应承担侵权责任。《民法典》第1194条有类似规定:“网络用户、网络服务提供者利用网络侵害他人民事权益的,应当承担侵权责任。”如今“网络”应扩大至AIGC等信息技术产品。
但加航案中,AI客服不受加航教唆、利用而“自行”编造错误信息以回应当事人的情形下,是否可以认定加航是行为人呢?当加航不存在主观故意和利用行为的情况下,这样认定比较牵强。可见加航的抗辩理由实际上是:都是它干的!我没叫它这样做,所以不该我负责。两案的区别在于:乙诉甲案中,AI充当的是有意侵权者的工具,响应“甲方”需求;加航案中,AI是被侵权者的工具,响应“乙方”需求。
因此,加航案中 AI主体性问题的实质是侵权行为人与权责主体的分离,即:AI的锅,它自己不背,让人类背。这类案件的特殊性就在于并非自然人、法人、非法人组织的的AI实际实施了侵权行为,但AI不能为其行为承担法律责任,对目前的AI实施惩罚是没有意义的,也无法从AI那里获取对当事人的经济赔偿。这与以往的行为人与担责人的关系有本质区别。AI并不能作为权责主体,但在此类案件中不得不被视为“行为人”,这是新技术时代下的“特殊行为人”。
那么,在加航案中,既然行为人是AI,为什么侵权责任由加航承担呢?上文已给出法官的理由:作为AI客服提供者,加航应为其提供的信息负责。此外,笔者认为,若AI客服是加航外包给某生产商的产品,则生产商也应为产品缺陷负责。《民法典》第1202条规定:“因产品存在缺陷造成他人损害的,生产者应当承担侵权责任。”推广地说,由于AI不可被认定为主体,则AI的责任必须压实在某个主体上,否则被侵权者无处追诉。为促使提供者与生产者重视技术安全,这一压实方式可能是必要的,这也将倒逼生产者研发更加安全可靠的AI技术。在理论上,提供AI客服服务的提供者也应当为其服务问题担责。
在这一过程中,人类从来不知道AI是用什么方法解题的,这叫做“黑箱”;而AI最终可以做对它没做过的题,也就是,AI可以输出任何人都没有教过它的东西,这与传统的编程有很大不同。于是AI客服可以说出加航从来没教过它的错误信息也就不足为奇了。
但是,AI永远不可能成为“主体”吗?一旦AI成为主体,其责任被确认时,其权利、义务也必须接踵而至,这的确难以想象。但笔者认为,人工智能的主体性认定应该具备这一要件:人工智能在人类没有提出需求的情况下,自主输出产品(自主原则)。
不难发现目前AI案件的共性:AI是人类的工具,即根据人类需求产出人类所需成果之非生物体。即使AI可以输出没学过的内容,但任何输出都因人类需求而产生。即使通用人工智能出现,只要AI的工具性没有改变,它与瑞士军刀之类的通用工具没有本质差异。但是,一旦人类没有提出需求,而AI可以自主行动,它可以生产出人类无法抵御的恶性产品,无论其是否有主观意识、意图如何,它已经失控。根据行为,可认为这种AI在智力方面与有自由意志、可自我决策、执行自身意图的自然人一致。目前的AIGC产品都需要人类提出“提示语”,但人类的描述能力千差万别。效率需求必将促使“AI自行给出提示语”的技术出现,正如深度学习中AI自行提取特征代替人工提取。一旦如此,需求的提出就逐渐不再由人类进行,而是AI挖掘需求和实现需求。即使所有的需求实现都需先经人类批准,但AI仍可将自己的“意图”藏在支离破碎的申请中,很久后才发现实际作用。一根可以自行移动的木棍比人手中的瑞士军刀更危险。笔者认为,可以自主行动的AI比AGI危险得多。
不是工具,就一定是主体吗?动物也不能被认为是主体,因此有构成要件二:可根据外在行为推定人工智能已具备至少与人类同等的“智力”、“体力”,并且对人工智能实施惩罚是有意义的(平等原则)。
图灵测试就是根据外在行为推断机器有没有与人同等的智力。当AI可以自主输出产品,并且与可承担法律责任的自然人具有一定程度的“平等”性质时,才可能认为AI具备主体性。
为什么上文只字不提“自我意识”?笔者认为,人工智能自图灵1950年的构想开始,就不以其内部“思考”过程为衡量它能否思考的标准,同理,AI是否有意识、情感等,也不可以钻进其中找答案,只可以根据外在行为。直到现在,AI都是在做“模仿游戏”。无论对人脑与意识的研究进行到何种地步,都应记住:AI技术受生物学启发,但并不是照搬;人机思考方式有别,照搬人类未必效果最好。不应该用无法证实或证伪的“人工智能具备自我意识”作为AI主体性认定的标准,“我们只能讨论可以测量的东西”,即外在行为。
综上可得:
1. 认定人工智能主体性的两项要件(还不完整):自主原则、平等原则。
2. 认定非主体的AI是行为人的标准:响应受损者需求,或可证明造成侵权的输出不由提供者引导产生(加航案);此时提供者应承担侵权责任,生产者应承担产品缺陷责任。
3. 认定AI非主体、非行为人的标准:响应侵害者需求,或可证明使用者引导AI输出造成侵权的产品(乙诉甲案);此时仅需行为人承担侵权责任,责令提供者与生产者加强技术安全水平。
从中可见,目前的人工智能产品造成的侵权,如果是使用者恶意通过AI侵犯他人权益,则只追究使用者:AI生产者与提供者不承担侵权赔偿责任,但有维护网络安全的责任;如果因AI缺陷,在没有利用AI进行非法行为的情形下,生产者承担产品缺陷责任,提供者承担侵权责任(若生产者即提供者,如无人驾驶汽车公司,则需同时承担双重责任)。
在《人工智能法(学者建议稿)》中,第85、86条也体现了上文部分结论。
但是,一味在AI出现问题时追责提供者与生产者,也将导致技术发展受阻。上文虽已论证在提供者没有利用AI侵权时仍需承担侵权责任,但为了协调公平/安全与效率,长远之计是设立AI安全标准。因为AI可以输出无限种成果,测试者不可能一一遍历,难免造成类似加航案的结果。如果生产者与使用者可以证明其AI产品已经符合安全标准,则可酌情减轻责任,但造成重大事故、人员伤亡等严重后果的不适用该减轻条件。例如无人车事故案件,这种规定也许是必要的。
在技术方面,为AIGC加上过滤器是一条可能的路径。让AI学习哪些输出是禁止的(这也是有标注数据),并在最终输出前加上这一过滤器,可以减少类加航案的发生。
进一步思考:在AI高速发展的当下,成文法如何贴合现实是一个难题。若为及时贴合AI发展变化而频繁修改法律,这对法治社会的影响或甚于AI造成的冲击;若为了预留弹性只提供基本原理,隔较长时间后再行修订完善,则在解决新情形和实践中适用一般原则方面造成困难。笔者斗胆提出:对高速发展科技的法治,应当借鉴判例法的思路。笔者不加论述地提出以下具体建议:
1. 由最高检、最高法在一定周期内整理、发布国内典型判例,重视案情分析与法律适用的内容,作为今后裁判的参考,后经人大审议通过即成为正式裁判依据之一,以补一般原理之抽象性。
2. 发布判例的周期应当短于人大修改法律的周期,并与技术发展速度、判例与法条适用程度相当。
3. 设立人工智能相关案件的专门研究单位和学术刊物,促进学术研讨与交流。
4. 提升法律工作者对新技术的知识,组织培训。
5. 重视对人工智能相关案件的复核、重审工作,尽量避免、努力纠正冤假错案。
6. 积极对人民群众进行普法和科普教育。
实际上,本文在一定程度上也体现了判例法的思路:对具体案件做分析并抽象出“具体规律”。今后,公平/安全与效率的协调,理性主义与经验主义的协调,科技发展与社会稳定的协调仍是重要课题。
资料链接:
[1]https://www.cxtoday.com/speech-analytics/court-orders-air-canada-to-pay-out-for-chatbots-bad-advice/(加航AI客服案报道)
[2]中华人民共和国民法典[M]. 北京:人民出版社,2020.6.
[3]A. M. TURING, I.—COMPUTING MACHINERY AND INTELLIGENCE, Mind, Volume LIX, Issue 236, October 1950, Pages 433–460, https://doi.org/10.1093/mind/LIX.236.433
[4]https://mp.weixin.qq.com/s/soaPpX4eBq0TQZRrqkQPiA(中国经营报报道北京AIGC第一案)
[5]https://mp.weixin.qq.com/s/sTG-mfp8DYa9nfkPUXsUmw(《人工智能法(学者建议稿)》)
2024年4月15日
来源: 陈林孝