目前,美国国防部高级研究计划局(DARPA)正在推进两个项目:“快速轻型
机器人”(FLA)和“敌对环境下联合作战”(CODE),前者计划设计出一款旋翼机,能够在没有外界操控的情况下以极高的速度在城市环境或建筑物内部敏捷地飞行;而后者的目标是开发无人飞行器,将能够在完全与总部失去联络的情况下完成一整套攻击程序——搜索目标、锁定、跟踪、攻击、评估。它们将有可能促成“杀手机器人”的研发。
在近日发表于《自然》杂志上的一篇评论文章中,4位相关领域的研究领军者分享了他们对智能机器社会风险的担忧和解决方案。
美国加州大学伯克利分校的计算机科学教授Stuart Russell认为,这些武器所具备的敏捷性和致命性将让人类陷入毫无招架之力的境地,“这不是我们所梦想的未来场景”。而来自英国布里斯托尔大学的机器人专家Sabine Hauert则表示,公众无须对人工智能技术的发展感到担忧。
应对人工智能武器表明立场
Stuart Russel(美国加州大学伯克利分校计算机科学教授)
人工智能(AI)和机器人领域的专家面临一个重要的伦理决策:必须要决定他们是支持还是反对致命自主武器系统(LAWS)。此类系统能在几年而非几十年内发展为可行的。该领域的风险很高,致命自主武器系统被描述为战争的第三次革命,前两次是火药和核武器。
在几年之内,军方就可以组装带有武器的四轴飞行器和微型坦克,这些自动的飞行器和坦克不需要人类干预,自己能决定谁能活下来而谁又会死去。例如,四轴飞行器能在一座城市中找到并打击敌方战士,但不包括人类能设定目标的巡航导弹和遥远的无人驾驶飞机。
但是,国际人道法律对于此类技术没有任何具体的规定,现在也还不清楚国际社会是否会支持一个限制或禁止此类武器系统的条约。1949年签订的战争人道主义《日内瓦公约》要求任何袭击需要满足3个条件:军事必需、参与战争者和非参战者差别对待、军事目标价值及其潜在附带伤害的平衡。而当前的自动武器很难或根本无法作出这些主观判断。
作为一个人工智能专家,我曾被要求为特定常规武器公约(CCW)第三次重要会议提供专业证据。德国等许多国家迫切要求签署禁令,但美、英和以色列这3个LAWS技术领先的国家则认为这样一个条约没有必要。
LAWS通过允许机器选择杀死谁,而可能侵犯人类尊严的基本原则。在我看来,最应当关注的是这个技术发展轨迹的可能终点。我认为超过人类控制的系统将建成这一点是不可避免的。当然这些武器系统能涉及的范围和携带大型武器的能力会受到物理定律的限制。然而它们的灵活性和杀伤力将让人们毫无防御之力。这样的未来不会是人们想要的。
因此,人工智能和机器人领域的科学家及其所在的专业组织应当表明立场,正如物理学家当年对于核武器,抑或是生物学家对于在战争中使用病原体表明立场一样。应当召开学术会议进行讨论,并让伦理委员会参与进来。什麽都不做就等于是表示支持继续发展和使用。