“今天的大型神经网络可能已经初具意识了。”
OpenAI首席科学家Ilya Sutskever在Twitter上撂下这句话,可谓语不惊人死不休。
这下可让AI圈炸开了锅,人工智能、神经科学领域专家的回复滚滚而来。
反击最激烈的就是图灵奖得主、meta AI首席科学家Yann LeCun。
LeCun当场回击,学界大佬纷纷下场
LeCun对此的第一条回复是这样的:
不同意!(目前的AI)没有达到“稍微有意识”的下限,甚至还没有达到“大型神经网络”的上限。
他还说,如果非要给现阶段的AI下定义,那么:
我认为你需要一种当前网络都不具备的特定类型的宏架构。
见到自家员工和当初创业伙伴被怼,OpenAI联合创始人Sam Altman也亲自下场评论:
OpenAI的首席科学家表达了对一个神秘想法的好奇心和开放性,用的是“可能”一词做前提。
而meta的首席AI科学家却斩钉截铁地说“不”。
下面这句语气略有些嘲讽,似乎是在暗示OpenAI因开放的态度取得了更多成果。
这可能解释了过去5年的很多情况。
推文结尾处,Sam Altman还不忘挖竞争对手墙脚:
尊敬的meta AI研究人员:我的电子邮件地址是 sama@openai.com。我们正在招聘!
接着,LeCun还拉上了OpenAI另一位联合创始人马斯克,以后者航空与航天技术差异做对比。
一个人可以建造更快的飞机,并打破高度纪录。
但如果一个人的目标是进入太空轨道,就必须研究低温罐、涡轮泵等。
不要那么华而不实。你可以去问问马斯克。
除LeCun外,其他AI界人士也对OpenAI此番言论口诛笔伐。
知名AI专家、新南威尔士大学教授Toby Walsh插话说:
每次有这种投机性言论放出,我们都需要花好几个月的努力,才能让人们消除疑虑。
DeepMind高级研究科学家这样嘲讽道:
如果这种观点成立的话,那么大片麦田里可能也有一点意大利面。
虽然在Twitter上批评占据了多数,但仍有一些支持OpenAI的言论。
一位来自MIT CSAIL的研究员Tamay Besiroglu表示:
看到这么多著名的机器学习人士嘲笑这个想法,真是令人失望。
这让我对他们能够解决未来几十年一些重要问题的能力降低了希望。
他认为,像OpenAI而不是meta这样的实验室更有可能解决在不久的将来在该领域出现的深刻、奇怪和重要的问题。
另外,这次吵架还有个意外的收获,那就是Sam Altman透露了GPT-4的最新消息。
从他的表述来看,GPT-4很可能是GPT-3的延续。
去年,为OpenAI提供超大型AI芯片WSE-2的公司Cerebras透露,GPT-4约有100万亿个参数,而且还要等上好几年。
回到这场争论风暴的“核心”来看,究竟是什么让Ilya Sutskever发出这样的感慨?
或许从他的经历中可以窥见一斑。
从最初的AlexNet,到后来的AlphaGo,再到见证GPT-3和Codex等模型的横空出世,几乎每一次AI领域的“破圈”技术,都有他参与其中。
在AGI道路上“越走越远”
Ilya Sutskever本硕博毕业于多伦多大学,曾经是Geoffrey Hinton的学生。
事实上,Sutskever正是AlexNet的作者之一。
2012年,在Hinton老爷子的指导下,他和Alex Krizhevsky共同设计了这个架构,在当年ImageNet挑战赛上夺冠,比第二名错误率低10.8%。
Hinton创办的DNNResearch被谷歌收购后,Sutskever加入谷歌大脑任研究科学家。
他曾经参与开发著名的AlphaGo,成为众多论文作者之一,后者在2016年的围棋比赛中4比1击败了李世乭。
在谷歌期间,他还与谷歌大脑的另外两名科学家合作,提出了NLP经典框架之一seq2seq算法。
2015年末,Sutskever离开谷歌,与马斯克、Sam Altman等人共同创立OpenAI。
2018年,在干了两年多研究主管(research director)之后,他成为OpenAI的首席科学家(chief scientist)。
可以说OpenAI从GPT-2研发到GPT-3,从击败DOTA2冠军战队的Rerun到会写代码做游戏的Codex,他都是亲身参与其中的见证者之一。
在他的引领下,OpenAI正在逐渐走向AGI(通用人工智能)的道路。
2021年年初,多模态模型DALL·E和CLIP出现,打通了文字和图像之间的连接道路。
当时OpenAI就提出研究表示,CLIP与人类的思维方式非常相像,让网友直呼AGI的到来比想象中要快更多。
同样是去年,GitHub和OpenAI合作推出自动补全代码工具GitHub Copilot,AI开始get到部分程序员的技能。
而就在今年年初,OpenAI研究的数学AI模型Lean再进一步,加上神经定理证明器后成功解出了两道国际奥数题。
如今OpenAI正在研究百万亿参数大模型GPT-4,或许这也与Sutskever发出的这句感慨有关。
“200亿参数AI连加减法都搞不定”
但其实,AGI的道路看起来也没有那么明朗。
至少就在最近,纽约大学助理教授Brendan Dolan-Gavitt发现,200亿参数的大模型GPT-NeoX连最基础的整数算术题都做不对。
GPT-NeoX并非OpenAI官方的模型,而是一个名叫EleutherAI的机器学习小组搞出来的开源大模型(因为GPT-3没开源)。
部分结果展示
在Brendan出的100道题目整数加法、减法和乘法中,AI只算对了10道题,虽然其他的答案与正确答案也“差不多”,但毕竟还都是算错了。可见AI并没有真正理解四则运算。
至于“神经网络到底有没有自我意识”这场讨论,网友们同样发表了自己的看法。
有网友认为,这些大佬与其说是在讨论AI有没有意识,不如说是他们在讨论定义是什么:
也有人调侃,深度神经网络进入“玄学”深水区了:
还有网友在这场讨论的评论区放了个机器人的魔性表情包,“AI眉头一皱,意识到事情并不简单”:
对于“神经网络初具意识”这个观点,你认为呢?