portant;">来自麻省理工学院(MIT)媒体实验室的布雷泽尔认为,“社交机器人能够以人的方式与我们交流和互动,理解我们,甚至与我们建立关系。它是一个具有类人社交智能的机器人。我们与它互动,就好像它是一个人,甚至是一个朋友。”同样是来自MIT的达菲也认为,机器人能够与人进行有意义的社会交往,这本身就要求机器人具有一定程度的拟人化或类人属性,无论是在形式上还是在行为上,或者两者兼而有之。
portant;">
portant;">事实上,从目前市面上所流行的社交机器人来看,它们不仅具有人形的外表,而且还可以通过“言语”“面部表情”“肢体语言”等来模拟人的情感。可以预测,随着人工智能技术的发展,社交机器人的“拟人化”属性会越来越凸显。不仅如此,达菲还认为,当今许多机器人专家的终极目标是制造一个完全拟人化的合成人。然而,当人类正为机器人的“完全拟人化”而付出努力,并为之自豪时,“拟人化”所带来的伦理风险也不应被低估。
portant;">来自都柏林大学智能实验室的扎韦斯卡 一针见血地指出了问题所在,她认为,“拟人化的核心是幻觉,因此,社交机器人的一个关键伦理问题就是欺骗。” 来自英国谢菲尔德大学的阿曼达·夏基和诺埃尔·夏基也认为,设计机器人来鼓励拟人化的属性可能被视为一种不道德的欺骗行为。
portant;">为什么社交机器人的“拟人化”属性能产生“欺骗”伦理问题呢? 这需要从对“欺骗”的理解说起。斯坦福哲学百科全书将欺骗定义为,“使人相信虚假的东西”。可见,对于被欺骗者而言,所面向的事物或者其属性具有“虚假”性,这是欺骗得以产生的根源。
portant;">
portant;">斯派洛通过比较机器人与生物体之间的区别,指出了机器人的“虚假”性,他认为,“机器人没有任何感觉或体验。”来自维也纳大学的科克尔伯格也从三个方面总结了情感机器人的“不真实”性,一是 情感机器人企图用他们的‘情感’来欺骗。二是机器人的情感是不真实的。三是情感机器人假装是一种实体,但它们不是。由此可见,无论机器人的“拟人化”程度多高,和人类自身相比,其仍然是虚假的和不真实的,而这无疑和欺骗定义中的“虚假的东西”高度契合。但只有“虚假”还不足以将“欺骗”上升到道德伦理的高度。
portant;">卡森认为,欺骗需要某种意图来导致他人产生错误的信念。欺骗在道德上的显著特征是它涉及到故意地使他人产生错误的信念。很显然,社交机器人必须要“故意地”隐瞒自己“情感”“语言”“构件”等方面的虚假性,才能产生“欺骗”伦理问题。然而,由集成电路、元器件等组合而成的社交机器人本身并没有任何“意图”,但是,它们“拟人化”的属性却自带“意图”,即诱导人相信它们看起来更像人的意图。扎韦斯卡等人认为机器人本质上只是一种机器,“它利用人类拟人化的倾向来制造生命的幻觉,而不是变得有生命。”可见,对“人类(将物体)拟人化的倾向”的利用就是一种“故意”,它所指向的就是“制造生命的幻觉”的欺骗“意图”。因此,结合欺骗的定义以及社交机器人的“欺骗”意图来看,确实存在社交机器人的“欺骗”伦理问题。