Facebook近日公开回应关闭AI失控语言事件,认为一些媒体的报道有失事实,造成不良影响。Facebook并没有关闭机器人聊天系统,而是在使它们变得更加聪明可控。
一篇论文引起的风波
事件起源于Facebook上个月发表的一篇论文。论文中阐述了一个Facebook例行的科学研究项目,展示了两个人工
智能机器人如何在看过人类的谈判后,开始互相之间展开对话交流,并通过试错逐渐提升谈判的能力。
具体而言,Facebook人工智能研究院的科学家利用神经网络结构开发了一个人工智能系统。这个结构叫做“生成式对抗网络”(GenerativeAdversarialNetworks,GAN)。所谓“生成式对抗网络”,就好比人类的对抗游戏,你的账户能在不断的对抗中提升技能,玩得越多,水平就会越高。
Facebook的研究人员希望训练这样一个聊天机器人,让它带着“目的”和人类对话。这个目的也很简单:一共有两本书、一顶帽子和三个篮球,三样东西分别设定了不同的权重,为的是让机器人明白它到底有哪些需求,然后去和人谈判。
Facebook的研究员对两个机器人聊天能聊成什么样产生了兴趣。在研究过程中,系统中的两个聊天机器人Alice和Bob产生了让人看不懂的对话。这段对话炸一看像是一堆无法解读的乱码,研究人员后来发现,原来是在为系统设置激励条件时,虽然告诉了它们“请用英文”,但忘了告诉它们:“请用英文语法”。
这原本是一个非常正常的纯学术研究。Facebook人工智能实验室(FAIR)主任YannLeCun此前接受第一财经记者专访时透露,Facebook每年大约会提交近百篇这样的论文,并公开实验结果。但这项研究却因为公布了人类所无法理解的语言而受到媒体的大肆炒作。甚至有人担心“失控”的语言将威胁到人类,必须“关闭”。
北京的一家科技公司国承万通CEO郭成博士对第一财经记者表示:“Facebook不太高明的工程师写了个不太高明的算法,里面忘记设置要用英语语法交流,结果两台机器自己不管语法,搞了点人仔细看也能看懂的语言出来。就像我们小时候玩的红白机boss会做一些诡异的攻击动作一样。”他补充道,人工智能可能还很傻,千万别高估了它。
Facebook研究人员对此表示:“人工智能机器人确实没有使用标准正确的英语语法进行对话,但这并不是重点。这项研究原本是为了使得机器人之间能够更加有效地进行谈判,我们的目的达到了,完成了任务。”
为此,Facebook重新设定了正确的激励机制,修正了机器人的行为,让机器人说“人话”。这段表态中值得注意有两点,其一,机器人并没有发明自己的语言,只是创造了新的表达方式,其二,Facebook修正机器人行为,并不代表“关掉”这个系统,原因也不是因为害怕系统失控,而是为了更加有效地进行新的实验。
上海威盛电子语音交互部门技术总监张国峰对第一财经记者表示:“只是一项普通的研究实验,最终的目的也不是让两个机器人聊天,而是通过机器人和机器人的聊天,来提高机器人和人聊天的技巧。根本还是为了实现人机之间的交互。”
至于Facebook为什么要允许两个机器人之间进行交流,张国峰表示,因为机器人的表达方式有限,因此机器人与机器人的对话相对容易做,而目前的人工智能技术尚不支持机器人的逻辑推理能力。
张国峰向第一财经记者说道:“给机器设定策略和另外一个机器谈判,这确实看上去很智能,但这还是在人设定的逻辑框架下,目前的人工智能尚不具备逻辑推理的能力。
他进一步解释道,Facebook“关闭”的这个项目就是试图在开放领域通过互相对话来学习对话策略以及表达方式。“但这并不是说发明了新的语言,而是它们的语言完全不收敛,这个项目的方法错了,没有继续的必要。没有内在的推理和记忆能力,通过统计方法学习是一条死路。”
通过机器之间的互相博弈来学习,AlphaGo此前已经加入了围棋推理和记忆能力,所以自己和自己下棋能够提高棋艺,但是这种推理还是由人类加入的推理,仍然无法在开放领域实现。所谓开放领域,就是指没有限制的对话。相比较于机器之间的对话,机器与人的对话更难,就是因为人的语言是毫无限制的。
人工智能威胁论再现
虽然人工智能发展迅速,但是目前机器的智慧水平还远不及人类。所以尽管人工智能威胁论几乎每十年就会被抛出一次,但反对的声音盖过威胁论。为此,FacebookCEO扎克伯格还和特斯拉CEO马斯克怼上了。马斯克说他一谈到人工智能,就感到恐惧,他认为人工智能是人类存在的最大风险。而扎克伯格却认为人工智能会让人们的生活更美好,还称马斯克的威胁论极不负责任。
创新工场董事长、CEO李开复也公开反对马斯克的“威胁论”,他明确反对马斯克“人工智能终将灭绝人类”的悲观论调。李开复表示,人工智能现在仅仅是人类的工具,离拥有意识的“超级智能”的能力还非常遥远。
针对此次Facebook关闭“失控”AI事件,李开复发表文章称,开云入口网页版 将马上进入千家万户的说法是无稽之谈。当机器人在言谈举止各方面都与人类极其相似时,普通家庭用户对机器人的“人类素质”的期望也会变得高不可攀。仅仅这种期望所带来的失望就足以让很多公司的“未来十年让科幻小说成为现实”的展望受挫,更别提消费市场对价格的苛刻要求了。
对人工智能持怀疑态度的最强大的代表是著名物理学家霍金。在今年早些时候举行的2017全球移动互联网大会(GMIC)上,霍金通过
视频发表主题演讲。他表示:“人工智能的崛起可能是人类文明的终结。”
这已经不是霍金第一次提出“人工智能威胁论”。在今年3月,霍金向英国《独立报》表示,人类必须建立有效机制尽早识别威胁所在,防止人工智能对人类的威胁进一步上升。
不过,霍金也表示,虽然他对人工智能有各种担忧,但他对人工智能技术本身还是抱有乐观的态度。他认为人工智能带来的收益是巨大的,人类或许借助这一强大的工具,可以减少工业化对自然的伤害。但他表示不确定我们是会被智能无限地帮助,还是被无限地边缘化,甚至毁灭。
借用霍金的话说:“这是一个美丽但充满不确定的世界,而你们是先行者。”