相互保证毁灭(MutuallyAssuredDestruction,简称M.A.D.机制,亦称共同毁灭原则)是一种“俱皆毁灭”性质的思想。对立的两方中如果有一方全面使用则两方都会被毁灭,被称为“恐怖平衡”。
施密特将AI与核武器相对比,表示中美未来可能要缔结类似于禁止“核试验”相似的条约,以防止AI毁灭世界。
施密特:当时我还很年轻,还很天真
7月22日,施密特在阿斯彭安全论坛(AspenSecurityForum)国家安全和人工智能专题小组会议上谈到了人工智能的危险。
在回答一个关于科技中的道德价值的问题时,施密特解释说,他自己在谷歌早期对信息的力量认识还很天真。
然后,他呼吁科技要更好地符合其服务对象的道德和伦理,并将人工智能与核武器进行了奇怪的比较。
施密特设想在不久的将来,中国和美国需要围绕人工智能签订一些条约。
施密特说:“在50年代和60年代,我们最终制定了一个关于核试验的‘意料之中’的规则,最终核试验被禁止了。”
施密特认为“这是一个信任或缺乏信任的平衡的例子,这是一个‘没有惊喜’的规则”,他非常担心美国和中国这两个人工智能大国之间,因为一些误解和误会而开始一些事情,导致触发危险的事件。
施密特表示,目前没有人在这方面进行研究,但人工智能是如此强大。
埃里克·施密特曾在2001年至2011年担任谷歌首席执行官,2011年至2015年担任谷歌执行董事长,2015年至2017年担任Alphabet公司执行董事长,2017年至2020年担任Alphabet技术顾问。
2008年,在担任谷歌董事长期间,施密特为巴拉克•奥巴马(BarackObama)助选,随后与埃里克•兰德(EricLander)一起成为奥巴马总统的科技顾问委员会(CouncilofAdvisorsonScienceandTechnology)成员。
从2019年到2021年,施密特与罗伯特·O·沃克(RobertO.Work)共同主持了美国国家人工智能安全委员会(NationalSecurityCommissiononAI)。
AI果真有那么危险吗?
人工智能和机器学习是一项令人印象深刻但经常被误解的技术。在很大程度上,它并不像人们认为的那样聪明。
它可以制作出杰作级的美术作品,在《星际争霸2》中击败人类,还可以为用户拨打基本的电话,然而,试图让它完成更复杂的任务,比如自动驾驶,却进展不太顺利。
施密特设想,在不久的将来,中国和美国都会对安全问题感到担忧,从而迫使双方就人工智能达成某种威慑条约。
他谈到了20世纪50年代和60年代,当时各个国家通过外交手腕精心设计了一系列对地球上最致命武器的控制。但是,世界要达到制定《禁止核试验条约》(NuclearTestBanTreaty)以及第二阶段《限制战略武器条约》(SALTII)和其他具有里程碑意义的立法的地步,需要经历几十年的核爆炸,比如像广岛和长崎的核爆炸。
美国在第二次世界大战结束时用核武器摧毁的两个日本城市、杀死了成千上万的人,并向世界证明了核武器的永恒恐怖。
随后,苏联和中国也成功开发了核武器,随后便诞生了相互保证毁灭(MAD),一种维持“危险平衡”的威慑理论,确保如果一个国家发射核武器,其他国家也有可能发射。
到目前为止,人类还没有使用这个星球上最具破坏性的武器,因为这样做可能会摧毁全球的文明。
目前人工智能有这样的威力吗?
现在看来,人工智能还没有证明自己具有核武器那样的破坏力,但是许多掌权者害怕这种新技术,人们甚至建议把核武器的控制权交给人工智能,这些人认为人工智能比人类更适合作为核武器使用的仲裁者。
所以人工智能的问题也许不在于它拥有核武器的潜在世界毁灭力量,人工智能的好坏取决于它的设计者他们反映了创造者的价值观。
人工智能存在经典的“garbagein,garbageout”的问题,种族主义算法诞生种族主义
机器人,人工智能也会产生偏见。
DeepMind的首席执行官戴米斯•哈萨比斯(DemisHassabis)比施密特更明白这个道理。
DeepMind曾培养出一种能够击败《星际争霸2》(StarcraftII)玩家的人工智能,在LexFridman播客7月份的一次采访中,Fridman问哈萨比斯如何控制像人工智能这样强大的技术,以及哈萨比斯本人如何避免被这种力量腐蚀。
哈萨比斯的回答:“人工智能是一个太大的想法,”他说,“重要的是谁创造了(人工智能),他们来自哪种文化,他们有什么价值观,他们是人工智能系统的建造者。人工智能系统会自己学习......但是这个系统的文化和创造者的价值观会在这个系统中残留下来。”
人工智能是其创造者的反映,120万吨级的爆炸不可能把一座城市夷为平地,除非人类教它这么做。