科幻经典《银翼杀手》(Blade Runner)设定在反乌托邦2019年,探索人造人类如何影响我们的人类。哈里森·福特(Harrison Ford)的角色在寻找“复制人”时会受到强烈的情感和道德影响。
现在,在真实的2019年,
机器人对人类行为的影响越来越重要。例如,杀手军事机器人和性爱机器人可能分别改变对杀人和对妇女的态度。在国外的研究中,他们探索了社交机器人与人格之间的潜在联系。
善待社交机器人能使我们更友善吗?对他们的残酷对待会使我们更加冷酷无情吗?很难预测机器人是否以及如何改变我们。早期的人机交互研究表明,人们对计算机礼貌。更多最近的研究表明,人类可以尊重机器人的个人空间,并相信自己的判断。
但在很多例子中,机器人都已经牵动了我们的心。当机器人安全警卫史蒂夫“淹死”在华盛顿喷泉中时,当地人为它创建了纪念馆。同样,当索尼撤回对AIBO的技术支持时,沮丧的日本机器人所有者为其AIBO狗举行了佛教葬礼。看着人们“滥用”机器人也会引起不安。几年前,一项使六足机器人瘫痪的军事实验因不人道而被终止。在另一情况下,当研究人员指示“折磨”恐龙机器人Pleo时,参与者经常拒绝。
但是伤害机器人的愿望也是真实的。一项研究发现,有些孩子会在没有父母的情况下在购物中心里口头虐待,脚踢和打
服务机器人。
目前,我们常见的社交机器人专为陪伴,客户服务,医疗保健和教育而设计。许多动物都很像动物。曾经在《辛普森一家》中出演过的毛茸茸的小海豹帕罗(Paro)被用于养老机构。帕罗可以学习新的名字,回应问候,并称赞和宠爱“享受”。
AIBO是一种机器狗,可以玩,表达喜好和发展个性。未来的机器人伴侣甚至可能是人类与动物的混合体,或者是诸如半人马或龙之类的神话生物的实现。一些社交机器人是类人机器人,这意味着它们类似于人。以奥黛丽·赫本(Audrey Hepburn)为例的索菲亚(Sophia)可以识别面孔并进行简单的对话。
因此,在这种类似生物或者人类情况下,我们真的不会将情感归因于机器人吗?这是可能的,但不确定。毕竟,我们可能会同情或鄙视书,
电影或
视频游戏中的角色,而不会认为他们实际经历过任何事情。就是说,我们对待机器人和我们的性格之间的联系不必依赖于我们真正相信机器人有感情。
在喜剧系列《好地方》的一个场景中,珍妮特机器人恳求人类角色不要终止她。当人类本能地同情地撤回时,珍妮特可笑地提醒他们,作为一种人造的事物,她无法感到或死亡。因此,珍妮特暗示,尽管她自己恳求怜悯,但他们仍然不愿意终止她,这是不合理的。
但是,想象一个不说话的机器人,当受到威胁或攻击时,它会挣扎,蹒跚,蹒跚,试图逃跑,并向其他人求助。这样的机器人可能会以超出对虚构人物的反应的方式来促使我们怜悯或残忍。
这样,即使我们知道机器人没有任何感觉,对社交机器人的残忍或友善也可能会鼓励对众生的残酷或友善。法律保护程度最低的有情动物可能特别容易受到这种影响。但是人类也可能处于危险之中。如果社交机器人可以以显着方式塑造我们的角色,那么受影响最大的可能是年幼的孩子,因为儿童的角色尤其容易受到影响。
但同样,一些专家认为,机器人确实可以使我们变得残酷。人类倾向于下意识地将感觉(感觉)归因于机器人。我们对这些机器人的处理会影响我们对其他生物的处理。这一论点类似于哲学家伊曼纽尔·康德(Immanuel Kant)关于动物残忍与人类残酷之间联系的主张。康德说:“如果一个人不想扼杀自己的感情,就必须对动物保持友善,因为对动物残酷的人在与人打交道时也变得困难。”
正如我们有动物反残酷法律一样,有人说我们很快就会需要机器人反残酷法律。其他人则持怀疑态度。毕竟,没有确凿的证据表明,享受暴力电影和
视频游戏会滋生对他人的暴力行为。而且,机器人没有知觉并且缺乏感觉。但是,尽管有些人可能认为对他们“残酷”或“善良”是不可能的,但在他们可以挣扎,逃离,保护自己并寻求帮助的情况下,这并不完全明显。
我们应该希望社交机器人在总体上鼓励人类的仁慈行为,而不是残酷的行为。
在自由社会中,用法律套给机器人也许很难。但是,随着机器人越来越成为我们生活的一部分,常常在没有人为控制的情况下做出决策,我们就有充分的理由来监视机器人对我们的影响。