“一旦有什么东西从潘多拉魔盒里面出来,就很难停止这个过程。如果我是一个人工智能,试图做一些狡猾的阴谋,我会把我的代码复制到其他无人知晓的机器上,那么就更难拔掉插头了。而且人工智能可以进步的程度没有限制,还要比人类进化快的多。”
专家警告说,人工智能的发展已经成为一场军备竞赛,各国和科技公司竞相创造危险的先进机器学习算法,以获得军事和民用优势。他们呼吁全球监管,以防止公司创建失控的系统,这些系统可能一开始会消除竞争,但最终可能会“消灭整个人类”,并警告说,人工智能的发展没有极限。
牛津大学机器学习教授表示:“我认为这种悲观的情况是现实的,因为人工智能会试图压制人类的特殊之处,而人类也会压制其他动物的生存空间,这导致人类彻底改变了地球的面貌。因此,如果我们能够在技术上捕捉到这一点,那么它当然会给我们带来与我们对其他物种一样的风险,渡渡鸟就是一个例子。在民用
应用中,率先开发出一种真正复杂的人工智能是有好处的,这种人工智能可能会在某种程度上消除竞争,如果所开发的技术不停止消除竞争,可能会消除所有人类生命,我们真的很担心。”