近日,meta 首席人工智能科学家杨立昆(Yann LeCun)在接受 ZDNet 的一次采访中,提出了一个重要观点。他表示:“今天的人工智能方法永远不会带来真正的智能。所有人工智能都面临某些基本问题,特别是如何衡量信息。”
关于AI的发展走向,学术界和业界都需要进行深刻反思
今年 6 月,杨立昆在 Open Review 上发表了一篇名为《一条通往自主机器智能的道路》(A Path Towards Autonomous Machine Intelligence)的论文[1]。
在这篇文章中,他总结了过去几年 AI 的发展状况,提出了一种构造自主智能体的体系结构和训练范式,并表明这是一种能在机器上实现人类水平智能的方法。不过,这也暗示了如今大部分 AI 项目都不能实现如人类般的智能。
在与 ZDNet 的对话中,杨立昆表示:“我对目前深度学习领域最成功的许多研究途径,都持有极大的怀疑态度。”
深度学习是机器学习的一个分支,其通过学习给定数据存在的内部规律,实现对文字、语音、图像等内容的感知、识别和控制。近年来,借助深度学习,研究人员在自然语言理解、数据挖掘、个性化推荐等领域取得了显著成果,而基于深度学习的大模型也成为实现 AI 的主流选择。
不过,对于诸如 GPT-3、BERT 这类备受关注的 Transformer 模型来说,杨立昆有着另外的看法。他认为:“它们是必要的,但并非是充分的,这可能是未来智能系统的一个组成部分。”
他看到了该学科快速发展背后存在的缺失,指出目前进行的大部分强化学习,都仅通过观察而非实际行动完成。
此外,他还表示,除了学术界以外,产业界也需要认真考虑 AI 的发展走向。
如今,很多自动驾驶公司正在借助高级驾驶辅助系统(Advanced Driving Assistance System,ADAS)来增强汽车的自动驾驶能力。凭借搭载在车上的各类传感器,该系统可以完成驾驶中的数据搜集、侦测、识别、追踪等工作,帮助驾驶者及时察觉潜在危险,增强驾驶的安全性和舒适度。
杨立昆提到了 Wayve 这类试图运用 AI 来主导自动驾驶汽车的公司,觉得他们有些过于乐观,好像只要把数据“喂”给大型神经网络,就能学到几乎任何东西。
他说:“这种过度设计的自动驾驶技术,将与所有因深度学习而过时的计算机视觉程序一样脆弱易碎。”
在研究自动驾驶时,需要创建一个帮助汽车在自动驾驶过程中不伤害他人的演示程序,在这个过程中,会产生许多边缘情况,且不管接下来的数据训练如何加倍,这些边缘情况都不可能被完全解决。但是,如果想让汽车完成每 2 亿公里发生一次致命事故的指标,应该如何做呢?
针对这个问题,杨立昆提出了两个解决方向。一是运用自监督学习方法,减少系统学习所需的数据量,这本质上是通过预训练来获得更好的性能。二是进行端到端的训练,设计一些能够处理边缘情况的系统,通过强化控制来解决问题。
他相信,未来会有一种可以更加有效额系统作为运行方式来理解世界,帮助减轻现在自动驾驶技术所存在的脆弱性。
一场有关两位人工智能专家的激烈交锋
值得一提的是,在采访中,杨立昆还对人工智能领域知名学者、纽约大学心理学和神经科学名誉教授加利·马库斯(Gary Marcus)进行了批评,他认为后者只是个心理学家,而从未对 AI 做出任何贡献。
相关采访发出后的第二天,马库斯就以《杨立昆的“新”想法有多新颖?》为题,发表了为自己辩护的文章。
他以七个例子为证,指明杨立昆在采访中的阐述的观点皆来自于其在2018 年发表的,以《深度学习:批判性评估》(Deep Learning:a Critical Appraisal)为题的论文[2]。
马库斯说:“没有人比昨天的杨立昆更紧密地重申我的观点了。我不会指责他抄袭,因为我认为他可能是非常诚实地得出这些结论的。这对我来说巨大的胜利,一个如此杰出的人来到了我很久前就已选定的位置。”
在文章的最后,马库斯表明,他已在推特上要求杨立昆给出相关解释,但直到发文之前,其并未作出回应。