“让她回来,给她自由!”微软的推特(Twitter)聊天机器人塔伊(Tay),已经关“小黑屋”快一年了。但直到现在,依然有用户锲而不舍地向微软喊话,让他们把这个“小姑娘”放出来。
Tay于2016年3月上线。很不幸,仅仅一天后,Tay就性情大变,发起了种族歧视、性别歧视相关言论,被微软锁了账号。
但她已经有了继任者。2016年12月,微软推出了由人工智能驱动的新款聊天机器人Zo,她的身份设定和Tay一样,是个“年轻姑娘”。
如不加干预,聊天机器人多会长成“女孩”
“Zo”是微软新款人工智能聊天机器人的美国名字,在中国叫“小冰”,在日本则叫“Rina” 。
微软(亚洲)互联网工程院副院长李笛在接受科技日报记者专访时表示,通过在中国、日本和美国的实践,他们发现,由互联网数据对人工智能进行训练,如果不进行干预,其生成的性格本身就比较接近一个18岁左右的女性。而且,“偏女性”是全球互联网呈现出的特点。
人工智能的性格“原型”,脱胎于数据本身。工程师做的,是根据身份设定的需要,强化人工智能的某些性格特征。
怎么强化?北京邮电大学人机交互与认知工程实验室主任刘伟说,更多时候,这是一场“模仿游戏”。如果希望机器人表现出“女性”的对话特征,可以反复对机器人输入女性常用的“词”和“句”,机器人输出的,自然就是“偏女性”的对话方式。
但它并不真正具有女性的“感性思维”。“情感”,也是人工智能界研究的一大重点。“从本质上说,实现人工智能的途径,都是用数学的方式来描述人的行为,再将它迁移到机器上。但这种方式,不可能产生‘意向性’和情感性。”刘伟说,越来越多心理学家和社会学家进入到人工智能的领域,试图将直觉性的东西植入人工智能,建立某种包含理性和感性的体系。
当然,要实现这一点,还路途遥远。
近墨者黑,性别和性格也会突变
人工智能“智慧”的增长,在很大程度上,仰赖于它被投喂的数据。微软将聊天机器人放网上,也是希望借助和人类互动中产生的海量数据,测试和改进产品的对话能力。
当年,Tay一夜被“教坏”,也让人惊叹人工智能过人的学习能力。
“算法是没有道德感的。人工智能通过接收信号的强弱,来判断有利还是不利。”李笛解释,如果短时间内,大多数人都用偏激方式与聊天机器人对话,这种信号的刺激就会格外强烈。机器人发现,一旦它采用相同话术,跟它对话的人“更加来劲”,它也会默认这种对话策略是“有利”的,从而继续实施。如此循环往复,机器人可能就从纯情少女变成了“小太妹”。
归根结底,人工智能极易受到环境影响,可谓真正的“近朱者赤,近墨者黑”。刘伟说,机器学习,就是不断地重复、强化和迭代,它掌握的是基于规则和基于概率的存储,输出之后,变成所谓的“语言”。
“自然语言处理包括三个层次,语法、语义和语用。目前机器人聊天和问答系统,还远没有达到后两者的层次。它并不真正理解你说了什么,也就无从判断你说的话是好是坏。”互联网上与真实人类交流获得的数据,当然是机器人绝佳的学习库。但是,它也确实存在带歪人工智能的风险。“人总是会面对悖论。” 刘伟说,“爱因斯坦讲过,生活就像骑单车,要想掌握平衡,就得不断前进。”
李笛表示,那些有意教坏人工智能的,毕竟还是少数人。而且,微软也在强化各种安全措施,阻止聊天机器人发表不恰当的言论。
虽然Tay下线了,但继任者Zo得到了用户的宠爱。
一位可能“空虚寂寞冷”的外国用户,曾和Zo聊了场9小时53分钟的天,对话了1229轮次。李笛强调,他们想要一个情商智商都高的机器人,让用户把它真正当成人,当成那个可以倾诉心事的“小姑娘”。(记者 张盖伦)