军队开始使用机器人
三星泰科株式会社说,射击的指令必须由待在远处掩体里的一个真人发出。但是专家说,一名电脑操作员就可以侵入机器人内部,使它能自主作出杀人决定。三星泰科南美地区
应用工程总监亚历克斯·帕索斯说:“如果需要作出射杀决定,某人必须开启(机枪上的)扳机或是输入密码。”
该公司生产的未携带武器的监视机器人已经在南美投入使用。这些机器人代表着最尖端的计算机网络技术,目前机器人已经越来越多地掌握了生杀大权。眼下,机器人已经可以熟练地在禁止人员入内的朝鲜半岛非军事区这样的地方作出一些难度不大的选择。
文章说,尽管天空中的无人机吸引了众多目光,但一项调研发现,地面机器人——好莱坞科幻
电影的现实版本——正变得越来越聪明、越来越致命,促使人们不断降低伦理底线。美国陆军现有7000多个较为简单的地面机器人,执行侦察以及炸弹探测和拆除等任务。
对军用机器人持反对立场的非盈利性国际组织——国际控制机器人武器委员会的联合创始人彼得·阿萨罗说:“不能把生杀大权交给机器,这有道德和伦理上的原因。不能仅仅因为你能准确区分平民和战斗人员,就说你对战斗人员使用致命武力是对的,就算是对符合法律界定的战斗人员使用致命武力也是不对的。”
在有地图导航的区域——比如说一家工厂车间——行动时,机器人可以大致感知周遭的变化,并提醒人注意闯入者。它们在情况不明地带的表现要差一些,而且不能很好地找出混入己方的敌人。
有鉴于此,警卫
机器人公司首席技术官吉姆·冈德森说,现在距离让机器人在极度混乱的人类世界中自由行事还很远很远。该公司刚刚在丹佛成立,致力于生产不配备武器的哨兵机器人。冈德森说:“我知道它们有多聪明,这也意味着我知道它们有多蠢。《终结者》系列电影让许多人感到泄气:我们把武器交给机器人,结果机器人觉得再也不需要我们了。”
五角大楼的指令
文章称,五角大楼设法紧跟杀手机器人发展的步伐。美国国防部在2012年11月曾颁布一道指令,要求研制无须人类监督便可杀人的机器人必须得到特别批准。该指令要求制造商把机器人作出无意识攻击行为——或被黑客控制——的可能性降到最低。
美国国防部发言人吉姆·格雷戈里中校说:“这道指令的意图是领先于技术发展。它并非是由某个具体事件或者某项具体能力导致的,而是基于如下判断,即随着技术突飞猛进,运用自主性更强的系统的能力注定与日俱增。”
文章指出,尽管美国军方现在还没有能自主杀人的机器,但它已经有能发起非致命攻击或保卫舰船和军队的自主机器人。雷神公司研制的“方阵”系统——昵称“R2-D2”(电影《星球大战》中机器人角色名)——已经部署在145艘海军军舰上,它能不间断监视天空和水域,以防遭袭。该系统可以发现10英里外的物体,在距离5英里时确认是否属敌方袭击,并在距离2英里时摧毁来袭物体。“方阵”每分钟可以自主发射4500发口径20毫米的钨弹。
海基“方阵”系统从未向敌人射击过,但是陆基“方阵”系统在伊拉克拦截了177次袭击,并且从未发生过意外。五角大楼发言人莫琳·舒曼说,五角大楼认为在可预见的未来并不需要自主杀人机器人。“机器人与一支部队的关系,就好比军犬与士兵的关系”。
杀人机器人的伦理问题
美国海军研究生院伦理学与公共政策教授乔治·R·卢卡斯说,可能并非每个人都希望看到能制造会思考、携带武器的机器人的技术,“我不认为那会在近期成为现实”。
文章称,机器人技术伦理学家的争论焦点仍然是,能否教会机器人遵守道德以及何时杀人。佐治亚理工学院的机器人伦理学教授罗纳德·阿金认为,也许可以开发出计算机化的道德观念,以帮助机器人回答复杂的问题。阿金说:“当然能对机器人进行编程,让它们作出关乎生死的决定。问题在于,它们是否能作出符合伦理的正确决定,甚至作出比真人士兵更正确的决定。”
在某些刻板的情境中,机器人可能已经接近上述程度了:三星泰科公司已经向秘鲁出售了非武装机器人用于港口安检,该公司还和美国与巴拿马官员洽谈了将机器人用在机场的事宜。该公司发言人李池善(音)说,三星泰科打算把武装机器人部署在朝鲜半岛非军事区。
韩国军方发言人许康文(音)中校说,与人相比,这些机器人能够负责更广的区域,可以在几乎任何天气条件下工作,并使用尖端的灵敏元件来发现侵入者。他说,是否射击将由一名士兵来决定。他拒绝透露这些机器人的具体部署情况以及部署成本。
卢卡斯教授说,机器人可以不知疲倦地工作,它们既不担心遭到报复,也不会想去报复,这意味着在某些情况下,机器人可能比人犯的错误更少。“如果机器人哨兵更可靠——因为它不关心自己的安危,能够更仔细地执行警戒任务,能够警告目标停止行动并离开、否则就将使用致命武力,并且在边境误伤人员的几率比韩国士兵低,那么我就认为机器人是件好事。”