但是 Facebook 关闭该项目的新闻已经曝出半个多月了,而其 AI 聊天机器人「创造一种人类无法理解的语言」这事更是六月的旧闻了。为什么这件事现在又火起来了呢?
原因可能是 Facebook 的创始人马克·扎克伯格刚刚与埃隆·马斯克就 AI 威胁论的问题隔空吵了个架,余热尚在,Facebook 被迫关闭「失控」的 AI 项目绝对是一波「打脸」的好戏码,于是我们就看到一波鼓吹 AI 威胁论的声音此起彼伏。
有关该事件的外媒报道
但我们在看了许多外媒文章之后发现,他们并没有对此事追根溯源,从一开始,他们就把 AI 之间语法不通的英语句子看做了一种全新的语言,而 Facebook 的两个聊天机器人 Bob 和 Alice 使用的依然是英语单词,只是语法上没有任何意义而已。
Bob:「I can can I I everything else."
Alice:「Balls have zero to me to me to me to me to me to me to me to me to."
翻译过来是:
Bob:「我能能我我所有其他事。」
Alice:「球没有对我对我对我对我对我对我对我对我对。」
这怎么看都是英语没学好啊。
别激动!Facebook AI 根本就没创造新语言,它只是在犯傻
Bob 和 Alice 的对话截图
对于这件事,人工智能公司 iPIN 的创始人杨洋表示,其实这种机器乱语的情况早就有了先例,Google 的聊天机器人就出现过这种状况,「说是新的语言太勉强,反而是将文字符号化,高阶语言降为低阶语言,或者说机器语言。」
「自创语言」的来龙去脉
6 月的时候,Facebook 人工智能实验室发表了一篇文章,介绍了他们如何教 AI 与人类进行谈判,他们希望训练机器人不仅仅是在表面上模仿人类,而是真正的像人类一样处理事情。
在这个项目上 Facebook 取得了一定的研究成果,他们的机器人在与人进行谈判时,人类甚至无法区分出对面的是机器还是人类。
但后来情况发生了变化。
Bob 和 Alice 之间的对话出现了上述那种语法不通的句子,据 Facebook 人工智能实验室的研究人员 Dhruv Batra 所说,对话系统出现故障的原因是因为「没有针对英语语言的奖励机制」。此前我们报道过,深度学习技术的一个延伸——加强学习(Reinforcement Learning)中,技术人员可以通过设立奖励机制来规范机器自学习的方向,从而得到开发者更想要的深度学习结果,比如去年 AlphaGo 在升级的过程中就使用了这样的技术,再比如在这个事件里,据 Dhruv 的说法,如果研究人员在系统中编写针对英语语法的奖励机制,系统就会偏向于更符合英语语法的语言,也就不会出现现在的情况。
我们就此事采访了 AI 平台公司三角兽科技的创始人马宇驰先生,他认为「这应该是一个小题大做的事情,在模型训练不完善的时候对话,会有类似的情形,理解成没完成的训练工作也许更合适。」
另外一边 iPIN 的创始人杨洋也持有类似的观点:「任何对话,加上 GAN(生成对抗网络),再做一些语言价值预设作为反馈逻辑,很容易出现这种情况。其实用 GAN 来训练机器人编程,本来就是这么个思路。」
说到底,这就是个技术失误,所谓「英语是一个非常复杂且难懂的语言,对机器学习来说不是很适合」,听起来非常危言耸听,好像 AI 像科幻电影里一样,已经开始「淘汰人类」了,但事实是,机器只是机器,他们不过是设定好的程序,你见过哪个程序员用英语写程序的?
这一点是各类鼓吹 AI 真的发明了一种语言这种说辞的的文章没有提到的。
项目关闭原因有待证实
谈到 Facebook 关闭该项目的原因,马宇驰先生的态度非常明确:「Facebook 关闭 AI 项目的原因不可能是这种,应该是外面杜撰出来的」,报道中出现的问题「修复重置等等都可以(解决)」。
据外媒最初的报道,Facebook 的研究员 Mike Lewis 表示,他们关闭该项目的原因是因为目前的情况不符合他们的预期,「我们的目标是让机器人和人聊天」。
原文里并没有给出详细的采访过程,也没有被访研究员的前后语境,加上文章从一开始就把它当做是 AI 觉醒奇点前兆一样的事件来看待,确实给人一种科幻成真的感觉,但这其实是有点误导读者的意思了,马宇驰先生也对文章中的采访内容表示了质疑。
宣传以外,是人主观放大了问题
事实上,在人工智能屡屡成为热门事件的今天,人们在面对相关事件时其实夹杂着一点「对科幻的向往」,无论是《终结者》里的「天网」还是《生化危机》里的「红皇后」,这些科幻故事中的机器反派往往叫人又爱又恨,在听故事之后,人们往往有一种科幻成真的幻想情节,如果现实中出现了天网会怎样?这也应该是科幻片最迷人的地方之一吧。
《生化危机》中的红皇后;图源
此前美国的警卫机器人 Steve 故障「投池」就引起了好一波关注,先是在社交媒体走红,有引起了各大媒体的报道,机器人自杀的笑话瞬间登上新闻头条成为了热门话题。有人认为 Steve 工作太无聊了自杀,有人认为巡逻散步的 Steve 思考人生时迷了路……不管怎么说,都是典型的人的思维。
警卫机器人 Steve 落水
但从官方的调查来看,Steve 落水的原因无非是下雨天气影响或者障碍导致的紧急路线变更导致的,说到底都是尚待修复的 bug,不仅不是机器太过智能,反而是因为不够智能导致的。
但外界对此的关心其实是有主观选择的,大众对机器故障毫不在乎,但如果说是「工作无聊、投池自杀」就要吸睛得多。
而人们在对待类似的问题时,往往不由自主会去放大这样的问题,微软聊天机器人说脏话、机器人投池自杀、Facebook 聊天机器人发明语言……一个个事件累加起来给人一种 AI 越来越失控的感觉,但这种整体的感觉只是表层的感觉,没有事实的依据,更没有对每个问题进行深度的探索,加之马斯克、霍金等大腕发声宣扬 AI 威胁论,群众不自觉地就会站在技术真相的对立面。
在一次内部培训中,创新工场 AI 工程院副院长王咏刚先生就曾表示,在 Google 内部,技术人员甚至不愿意将目前大行其道的深度学习技术称为人工智能。在他们看来目前家家户户热议的人工智能还非常初级,远远谈不上智能。
人工智能近几年在商业上的发展是爆发性的,但在技术层面上,人工智能还在按部就班地原速进步着,我们也没有必要因为新闻里故作玄虚的「人工故障」而惊慌失措。
对大多数人来说,我们都希望人工智能取得突破性的发展来进一步解放人类的初级劳动,但对之寄予厚望的同时,我们也应该多了解一下人工智能行业内真实的科技发展情况,没有哪一项技术能在一夜之间取得全方面的突破,这一点是我们必须认清的。科技发展也许很快,但人的学习和适应能力更快,请相信,在「真·人工智能」到来的那天,人类一定早已做好了准备。