Sharkey指出,最大的问题其实还是负责制度。如果某次军事行动出错,
机器人无法被问责,这也是与Sharkey交流过的指挥者们真正担心的问题:如果机器人出错了,倒霉的可是指挥官们。
“这对指挥官不公平,机器人随时会崩溃当机,机器人有可能被人类诱骗,可能被黑,可能由于编程中的某次出错让黑客通过计算机控制开枪,机器人的传感器可能出现故障,而这一切又应该由谁来负责呢?是制造者?软件工程师?机器人工程师?还是指挥官?在战场上一旦出错必须清楚谁该负责。“
Sharkey关心的是一旦技术上的限制被突破,战争机器人极有可能逐步推广到全世界的战场。“自主机器人技术并非用于战争,即便自主机器人武器被部署在战场,这项技术本身也不适合用于战争。”
战场上的科技树越攀越高,自主机器人投入使用的可能行也越来越大。如果仅靠拦截通讯就可以阻拦敌方无人机,那么可以轻易自主执行任务的无人机就会被开发出来。同样的道理,遥控无人机驾驶员在遥控装置上发出一个指令到无人机真正执行之间有1.5秒的延时,人工操控无人机的反应速度会不如自主无人机,这也为自主无人机的推广给出了理由。
ICRAC希望管制传统武器联合国大会此次讨论自主武器将为禁止自主机器人武器迈出第一步,对激光致盲武器的禁令就是这么走过来的。
人们对自主机器人武器的误解达到了不可思议的地步,其中的原因是对人工智能抱有太大期望。实际上人工智能的水平还远没有达到人们的预期,或者,用Sharkey教授的话说:“因为科幻小说而导致的人们对人工智能的文化曲解。”机器人研究者指出AI目前的
应用领域都是一些极为平常的领域,并非用于制造能够思考的机器人。
“20年内可感知机器人会诞生,而在每个年代都有人扬言
智能机器人就要诞生了,但是真正的机器人工作者们却从来不这么说,他们继续着他们的研究。人工智能在不断发展,它的身影遍布我们身边只是我们从没意识到——手机和汽车,这都是科学家们研究的内容。”
有人指出在遥远的未来人工智能可能发展成熟,电脑可以遵守战争基本法,即便这样,最基本的道德问题依然没有消失。Sharkey说:“谁改负责的问题依然没有得到解决,人们还是要抉择是否应该让机器人有权杀死人类。”
机器人法则
对机器人是否拥有权利杀人的讨论可能略显神秘,争论本身也还是很模糊,尤其是——杀人机器人还不存在。
目前我们的工作是为特殊用途制定特殊的机器人规则,例如国防部的自主武器系统规划。另一个不那么雄伟的例子:美国一些州最近准备通过允许自主驾驶汽车上路的法案。我们正为不同的机器人应用领域制定不同的机器人规则,却很少去研究机器人杀人问题。
然而,有许多人提出创建一系列新的规则和道德框架来掌握人工智能和机器人。这其中最出名的是阿西莫夫的机器人三大定律。这套规则在1942年首次被提出,至少在科幻世界中已经为机器人的行为准则制订了道德框架。
阿西莫夫三大定律陈述:
第一法则:
机器人不得伤害人类,或因不作为使人类受到伤害;
第二法则:
除非违背第一法则,机器人必须服从人类的命令;
第三法则:
在不违背第一及第二法则下,机器人必须保护自己。
无论是机器人还是人工智能都没有发展到足以理解或遵守这三条定律,或是其他复杂规则的程度。吸尘机器人就不需要理解如此复杂的道德规则。
“人类想出了阿西莫夫定律,但是定律本身就表明了简单的道德规则无法运作。如果你通读三大定律就会发现,每条定律都说不通,阿西莫夫定律是不切实际的。”英国巴斯大学的Joanna Bryson教授说。
Bryson教授强调,机器人和人工智能只能被视为最先进的工具——极端复杂的工具,但是仅此而已。她指出,人工智能应该被当做人类智能的扩展,就像书写成书是人类记忆的扩展一样。“人工智能只是人类千百年来改造世界的无数工具之一,”她说,“不同的是改造的速度比以前更快了。”
无论机器人的自主能力和智能达到何种水平,对Bryson来说,机器人和人工智能都只属于工具范畴,因此需要规则的并非机器人而是人类。“人们需要在自身建立道德框架,机器人用不着拥有自己的道德框架。人类要做出选择,把机器人放在人的道德框架之内,才不会残杀地球上的其他生命。”
英国工程和物理科学研究理事会(EPSRC)是少数几个致力于制定一套实用的机器人规则的组织,但是很快EPSRC就意识到目前机器人并不需要这么一套规则。
EPSRC的机器人守则中注明:“阿西莫夫定律的不恰当性在于,规定了机器人应该怎么做,将机器人视作人类,但是现实中,设计和使用机器人的人类才必须成为类似这种规则的遵守者。如果在人类社会中考量机器人的道德规则,很明显所有责任不在机器人。”
由此,EPSRC的专家包括Bryson博士制定的规则的目标针对机器人的设计者、制造者和使用者,对机器人本身并不适用。
举例来说,五条规则包括:“人类,非机器人,是责任承担者。机器人的设计和操作必须遵守现行的各项法律法规和基本人权以及包括隐私权在内的自由权。”
伦敦大学学院的Kathleen Richardson教授也表示,无须为还不存在的机器人制定新的规则以保护人类不收其他机器的侵害,即便这些机器人被用于战场。
“遥控杀人机器会导致一系列人与人之间暴力相处的新问题。在这种情况下,你必须了解机器会杀死‘正确’目标……即便这样,遥控杀人机器和机器人道德还是没有关系,真正需要关心的是人类道德。”她说到。
“目前我们制造的机器人不是科幻小说中的思考机器人,”她说,“因此健康标准和安全标准反而是最重要的问题。我们建造的机器人不是一不小心就攻击你的机器人,我们的工作是帮助机器人分清对错。”
“科学家研制的机器人类似自动便利设备,”她说,“我们应该把更多关注放到实际造出来的机器上面,我们要保证人们使用的机器是安全的机器。我们不需要为机器人制定‘特殊’规则,人们口中讨论的能够掌握道德观的机器人还不存在,并且未来也不太可能存在。”
也许我们需要的可能是保证我们家中使用的两足机器人的安全性,这是更实际的考量,这也是你在使用家庭中所有消费电器时要考虑的因素。
“还有,道德观实际上比这些定律和规则负责得多,”她说:“道德观是一系列相异的见解,不同用途的机器人践行的道德观也是不同的。”
开放思想 去爱机器人
确实,我们遭遇杀手机器人的概率十分渺茫(希望如此),机器人在关照日益增多的老年人生活起居方面也起着越来越重要的作用,这个问题就更加庞大而长久了。与其害怕机器人残害人类,人类在情感上更依赖机器人,机器人给我们的爱也多的数不胜数。
EPSRC还有一条指导规则(再次声明这是机器人领域为数不多的规则之一),规则中陈述:“机器人由人类制造,人类不允许以欺骗手段让机器人剥削弱势群体,机器人必须所言即所想。”
规则提醒人们,某些没节操的制造商会通过机器人宠物或机器人伴侣让人产生机器人有感情的错觉,从中谋取利益。
把机器人造的拥有感情,然后觉得有必要给它们套上道德的框架来指导它们的行为,这也许才是人类要面对的最大风险。我们冒险将机器人打造地和人一样——却因此也让机器人更容易忽略人类。
Richardson教授说机器人科学家对机器人道德观的思考无可厚非,但是对机器人道德观的争论却忽略了另一个更严重的问题:为什么我们要用这些设备,尤其是在人与人交流的社会关怀领域。
现实的责任
杀人机器人和强悍的疯狂人工智能常常在廉价的科幻小说里读到,但是关注这些可能的威胁让人们忽略了对自己生活的现实社会的思考。机器人道德观反映或者控诉了人类社会,表达了对于人类无法准确定位机器人的担忧。机器人无论是用于战争还是照看我们的长辈——其实都是人类自己不愿意去做的事情。
让机器人来做这部分工作可能可以解决部分问题,但是潜在问题依然没有解决,更糟糕的是导致社会忽视机器人。机器人上战场让战争变得简单,机器人照看老人让我们更容易忽视我们敬老的责任和社会压力,尤其是处在这个老龄化社会。鉴于此,对机器人道德框架的担忧更多的是分散人们对于自己道德滑坡的注意力。