12月中旬,联合国《特定常规武器公约》第六次审议大会在日内瓦召开,讨论了有关规范“致命自主武器系统”——“杀手机器人”——事宜。但遗憾的是,会议最终未能达成相关协议。
在《特定常规武器公约》审议大会上,125个成员国中的大多数代表表示,他们希望限制“杀手机器人”。但遭到了美国、英国、俄罗斯、以色列、印度等正在开发这种武器的国家反对。联合国秘书长古特雷斯呼吁各成员国能尽快达成一致、出台一份关于“杀手机器人”的新规。
联合国自2017年以来一直在日内瓦举行外交对话,旨在就解决杀手机器人的使用问题达成协议。多个国家呼吁,应全面禁用这种无需人员监督并下达最终行动指令就能发动致命攻击的武器。
2018年11月,联合国秘书长古特雷斯加入了呼吁禁用的行列,但迄今为止,各国尚未就是否需要对此类武器进行管控达成一致。
“阻止杀手机器人”组织发言人 克拉尔·康博伊:说到“杀手机器人”,我们不是在说科幻小说。自主武器是一种能力,而非给武器下指令,所以这种武器可能是无人机、潜艇、飞机、坦克、机枪。
中国特命全权裁军事务大使李松在大会上指出,中方认为,在世界和平与发展面临多元挑战的背景下,各国应秉持共同、综合、合作、可持续的全球安全观,通过对话与合作,就如何规范人工智能军事应用寻求共识,构建有效治理机制,避免人工智能军事应用给人类带来重大损害甚至灾难。
什么是“杀手机器人”?
那么人工智能与军事武器相结合究竟有什么可怕之处,为什么会遭到大多数人的极力反对呢?
“杀手机器人”究竟是什么?配备了杀伤性武器的人工智能也被称为“杀手机器人”。机器人技术、人工智能和图像识别技术的快速发展,使这些武器成为可能。
支持研发“杀手机器人”的群体认为,这些武器可以让人类士兵远离危险,一些大规模杀伤性武器的使用也将更加便捷。
反对者认为,不管技术多么先进,让机器来做致命的决策有违伦理道德。一旦研发出这种高度自动化的武器,未来战场必将成为这些没有生死意识的“冷血杀手”的天下。有他们的参与,武装冲突的规模势必进一步升级。
万一他们落入恐怖组织之手,后果更是不堪设想。
还有人担心一旦“杀手机器人”失控,人类生死的决定权恐怕将掌握在他们手中。