图:2009年3月18日,在日本东京举行的Terminator Exhibition展览上,
电影《终结者2》(terminator 2)中出现的机器人T-800全尺寸图像
不久前,著名物理学家斯蒂芬·霍金(Stephen Hawking)也发出警告,强调监管AI的重要性。他在里斯本举行的网络峰会上说:“除非我们学会如何为应对和避免潜在风险做好准备,否则AI可能是人类文明历史上最糟糕的事件。它带来了危险,比如强大的自主武器,或者是少数人压迫绝大多数人的新方法。”
11月2日,来自加拿大和澳大利亚的数百名AI专家加入了马斯克和霍金的行列,向各自的政府提交了公开信,敦促他们支持联合国禁止自主武器的行动。加拿大社区给加拿大总理贾斯汀·特鲁多(Justin Trudeau)的信中写道:“正如你所知道的,AI研究(包括研发能够执行智能任务机器的尝试)在过去十年里取得了惊人的进步。传统AI得益于机器学习的迅速发展,使AI社区的雄心重新燃起,它们希望制造出能够在人类监督或干预下进行复杂操作的机器。”
这封信指出,AI技术的发展有可能在许多领域帮助社会进步,包括交通、教育、卫生、艺术、军事以及医学等。但同样的技术被
应用于武器上,可能产生令人恐怖的后果。信中写道:“AI具有革命性的意义。这些转变(无论是实际还是潜在情况下)要求我们的理解,以及越来越多的道德关注。正是出于这些原因,加拿大AI研究团体呼吁你和你的政府让加拿大成为世界上第20个反对AI武器化的国家。致命的自主武器系统,从决定目标的合法性和部署致命武力的角度,都在消除有意义的人类控制,这显然违背了我们的道德底线。”
澳大利亚AI社区在给国家领导人的公开信中,也以类似的语气和措辞表达了同样的担忧。信中称:“正如许多AI和
机器人公司(包括澳大利亚公司)最近敦促的那样,自主武器系统可能会成为战争的第三次革命。如果它们发展起来,将会导致武装冲突的规模以比以往任何时候都更大,而且在时间上比人类能理解得更快。致命的后果是,机器(而不是人类)将决定目标的生死。澳大利亚AI社区无法容忍AI被用于这种用途,我们只是想要研究、创造和促进其有益的用途。”