来自英国伦敦大学学院和布里斯托大学的研究人员们,利用BERT2来测试一个有沟通和表达能力的机器人是否能更好地与人类一起工作,它们应该为我本周的噩梦负责。研究人员们发现一个机器人同伴因犯错而道歉之后,能够更加成功地获得人类的信任。人类对它的信任程度甚至已经达到愿意说谎来避免它们产生被伤害的感觉。
研究人员们让参与者们与三个版本的BERT2机器人合作烹饪,这些机器人负责给人类参与者们递食材。其中一种机器人无法与人类沟通也不会犯错,第二种能与人类互动却不会犯错,第三种则能与人类互动且会犯错。
第三个BERT会问:“你准备烹饪鸡蛋了吗?”它还会按照程序设定丢掉鸡蛋并道歉,之后询问参与者们对它们工作的评价。
研究结果显示参与实验的21个人中,有15个人喜欢第三个版本的机器人,即便这个机器人的工作效率更低。研究人员们观察到当参与者们被提问的时候,大部分参与者们都感觉不舒服,其中一名参与者们甚至能看出机器人并未表现出来的悲伤,甚至还有另外一名参与者对机器人说谎。
研究的主要作者Adriana Hamacher表示:“我们认为当参与者们看到机器人拿的鸡蛋掉落之后它们表现出来的类人表情时,许多人的反应都很相似且在否定机器人的时候感到犹豫;他们更加留心机器人后来表现出来的类似人类痛苦的可能性。”在机器人犯错的时候,研究人员们会想办法确保人类与机器人之间的合作能够进行下去。
研究人员们写道:“这表明机器人有效地展示出明显的情绪,比如后悔和热情、认识到自己的错误,使得参与者们因机器人的错误而产生的不满相对温和,就算没有原谅机器人,他们也会给予机器人一定的信任。”
全世界的研究人员们一直在试图赋予机器人情绪,或者说情绪表达。以日本机器人Pepper为例,它就能给看出人类情绪并拥有自己的情绪。但即便没有Pepper或BERT的能力,我们人类也试图在其它事物上寻找人性。拟人论,或者说倾向于认为动物和无生命物体有自己品格,正是人类的本性。
MIT人机交互专家Kate Darling表示:“我们发现人们将这些机器当做社会角色对待。”