希瑟 奈特博士(Heather Knight)是美国卡耐基梅隆大学(Carnegie Mellon University)的
机器人专家。最近,他发表了一篇题为《人类如何应对
机器人》(How Humans Respond To Robots)的论文。
奈特的研究特别注重机器人与人类的互动方式。她曾经参与创建了一个名叫“Marilyn Monrobot”的实验室,该实验室致力于研究具有社会感性、可以娱乐观众的机器人。他也是
机器人电影节(Robotics Film Festival)的创始人。此外,他还是美国匹兹堡一个叫“Cyborg Cabaret”的综艺节目的支持者,该节目使用了一些机器人作“演员”。
奈特希望更多的人们关心机器人。他的这篇论文写得很完美,下面我们引用原文的一些关键段落(用楷体字表示)来谈谈机器人的未来。
机器人并不需要眼睛、手臂或腿,也可以成为人类的社会代理人。事实证明,我们能够在本能的作用下迅速评估设备的功能和角色,也许这是因为机器本身具有物理形体和显而易见的目的。社交性是我们的自然属性,我们不但与喜欢与同类社交,与其他生物也是如此。事实上,作为一种社会生物,往往是我们的默认行为使机器人变得人格化。
奈特认为,机器人并不需要在外表上看起来像人类,也可以作为人类社会的角色而存在。它甚至不需要有类似人的身体部位的部件,如作为“眼睛”的摄像头。
要使未来的机器人成为我们的社会成员,我们只需要使它们能够移动,并能够在一定程度上与我们交往。
即使客运无人机的安全纪录比有人驾驶的民用航班更好,人们会喜欢乘坐没有驾驶员的飞机吗?在医院里,患者会不会被一台能够与人交谈的医疗设备吓坏?
如果我们要真正接受机器人并充分发挥机器人的潜力,我们需要克服某种心理障碍。我们已经拥有许多自动化技术。我们可以想象这样一个世界:在那个世界里,航空,——以及所有的运输系统,都是全自动的。但是,要让人们适应这些自动化的机器人,我们还需要克服一个社会障碍。
拆弹机器人Packbot的提供商iRobot公司经常收到士兵的返修要求。这些士兵将被炸碎的机器人残骸装在盒子里递送到iRobot公司,盒子上面贴着一张纸条:“你们能修好它吗?”这些士兵拒绝iRobot公司为他们更换一个新的机器人。他们说:“不,我们要的是原来的那个。”这是因为,原来的那个机器人已经与士兵们有了共同的经历,已经与他们“结合”在一起了。他们不希望他们的机器人“死去”。
尽管机器人没有生命,但有些人确实已经与他们的机器人结合在一起了。在上面的例子中,拆弹机器人已经成为士兵们的“战友” 。
正如卡耐基梅隆大学的伦理学家约翰?胡克(John Hooker)说的那样:从理论上讲,伤害一个机器人并没有什么不道德的。但是,如果我们将机器人看作社会实体,我们对它们的伤害也会让我们感到不安。这就像我们制止小孩伤害蚂蚁一样,我们不希望这样的行为发展成伤害其他小孩。
机器人不是真人。“杀死”一个机器人并不能算是“杀生”。虐待一个机器人实际上并没有引起它的“疼痛”。问题在于虐待行为本身。
人与机器人的结合的另一个问题是,机器人设计师和政策制定者可能需要防止人类对机器人的过度依赖,因为机器人终究不能代替人与人之间健康的交往,对它们的过度依赖会阻碍人的正常的发育。关于这一点,想象那些
视频游戏迷吧,他们沉湎在虚拟的世界中,以此逃避社会。
在一个机器人充当社会角色的世界里,人们面临一个危险,即他们可能会遗忘与其他人的交往。奈特写道:“相比真正的人类,机器人的智能及其模拟的社会行为太简单化了。机器人不能取代人类,人类也不能取代机器人。我们要采取切实的措施避免人对机器的过度依赖。”
另一方面,我们也可以利用机器人技术来促进人与人的交往。一些研究者已经发现,具有社交功能的机器人可以帮助那些有社交恐惧症的人,它们可以让这些孤独者练习社交行为,以使他们走向真正的人类交往。
不同的机器人具有不同层次的社交能力,它们已经被用于帮助那些社交有困难的人群。正如我们前面提到的,人与机器人的交往不会伤害“感情”。所以,人与机器人一起练习社交技巧,是一件没有风险只有进步的事情。