皮查伊指出,Bard正运行在一个"轻量级和高效版本的LAMDA"上,这是一个专注于提供对话的人工智能语言模型。皮查伊说:"在某些方面,我觉得我们把一辆改装过的思域汽车放在了与更强大的汽车的比赛中。相比之下,PaLM是一个更新的语言模型;它的规模更大,Google声称它在处理常识推理和编码问题等任务时能力更强。"
Bard于3月21日首次向公众用户发布,但未能获得OpenAI的ChatGPT和微软的Bing聊天机器人赢得的关注或赞誉,Bard始终不如其对手有用。像所有通用的聊天机器人一样,它能够回答各种各样的问题,但它的回答通常不太流畅和富有想象力,而且未能利用可靠的数据来源。
皮查伊表示,Bard能力有限的部分原因是Google内部的一种谨慎意识。他说:"对我来说,重要的是在我们能够完全确保我们能够很好地处理它之前,不要[推出]一个能力更强的模型,"。
皮查伊还证实,他正在与Google联合创始人拉里-佩奇和谢尔盖-布林讨论这项工作("谢尔盖已经和我们的工程师一起玩了一段时间了"),虽然他本人从未发布过臭名昭著的"红色代码"来扰乱开发,但公司里可能有人"发邮件说有一个红色代码"。
皮查伊还讨论了对人工智能的发展目前进展过快,或许对社会构成威胁的担忧。人工智能和科技界的许多人一直在警告,包括OpenAI、微软和Google在内的公司之间目前存在危险的竞赛动态。本周早些时候,一封由埃隆-马斯克和顶级人工智能研究人员签署的公开信呼吁暂停这些人工智能系统的开发,为期六个月。
"在这个领域,我认为听到关切很重要,"皮查伊就呼吁暂停的公开信说。"而且我认为关注它是有道理的......。这将需要大量的辩论,没有人知道所有的答案,没有一家公司能把它弄好。人工智能是一个不需要监管的太重要的领域,但建议最好是简单地在现有行业中
应用法规--比如隐私法规和医疗保健中的法规--而不是制定新的法律来专门解决人工智能。"
一些专家担心眼前的风险,比如聊天机器人倾向于传播不实的错误信息,而其他专家则警告说存在更多的威胁;鉴于这些系统很难控制,一旦它们被连接到更广泛的网络,就可能被破坏性地使用。一些人认为,目前的程序也正在接近所谓的人工一般智能,或AGI:在广泛的任务中至少与人类一样有能力的系统。
皮查伊说:"对我来说,这些系统将非常、非常有能力,因此,你是否达到AGI几乎不重要。我们可以有一个人工智能系统,可以大规模地造成虚假信息吗?是的。它是AGI吗?这真的不重要。为什么我们需要担心人工智能的安全问题?因为你必须预测到这一点,并不断发展以迎接那一刻"。
你可以在这里收听采访的全文,并阅读采访记录:
https://www.nytimes.com/2023/03/31/podcasts/hard-fork-sundar.html