张亚勤说,过去五年中,大模型已经成为人工智能的主流趋势。过去一年半,特别是ChatGPT出来之后,发展速度呈现出跳跃性,不管国内也好,国外也好,都有很多新的创新和进展。
在其看来,人工智能的发展、大模型,最重要的基石是数字化。
“IT产业过去30年最重要的事情就是数字化。一开始是内容的数字化,然后是企业的信息化,到现在是物理世界的数字化和生物世界的数字化”,他说。
具体来看,物理世界中,家庭数字化、工厂机器数字化、电网数字化都已实现,汽车、交通、公路铁路也已经实现数字化。同时,生物世界也在全方位的数字化,包括细胞、蛋白质、基因、大脑、身体器官等都在数字化,“特别是最近新的芯片技术、新的传感器技术、脑机接口技术”。
在张亚勤看来,ChatGPT的出现代表了三个方面。
第一,第一次有一个智能体通过了图灵测试,“我们这么多年做计算机、人工智能都是希望能通过图灵测试”。
第二,ChatGPT开启了通向通用人工智能的亮光,“我们离真正的通用人工智能还有很多年,也许十年,也许二十年,ChatGPT给我们提供了一个方向,提供了一个道路”。
第三,真正有了人工智能的操作系统。张亚勤强调,“我们进入了一个新时代,就像在PC时代是windows、Linux,在移动时代是iOS、安卓。现在,我们有了大模型,开启了人工智能时代”。
张亚勤说,每次操作系统的变化都会改变生态。PC互联时代是intel芯片,在windows上面有浏览器,有各种各样的
应用。iOS、安卓为代表的移动互联时代用的是ARM芯片,上面有各种商店,有各种app。在AI时代,有了横向大模型,芯片是XPU,特别是GPU,有垂直模型,上面又有新的商店、新的应用。
“目前趋势已经相对比较明显,GPT4、GPT4S、GPT4商店上个性的应用,上面开发各种各样新的垂直的模型。整个产业机会大很多,比PC时代至少大两个数量级,不管是整个设备的数目、整个影响力,都会大好几个数量级”,他说。
张亚勤业分享了AI大模型发展的技术方向。
第一,多模态。跨尺度、跨不同模态,不仅仅有语音,有文字,有图像和
视频,未来多模态也会包括各种各样的结构,蛋白质结构,包括汽车里面激光雷达的信息,包括人脑生物电的信息,都是不同的模态,都会进入大模型的时代。
第二,新算法。现在有很多算法,但是这些算法在未来五年都会改变。“现在的算法看起来很聪明,但是效率很低,比起我们的大脑,至少效率低一千倍,如果把能耗算进去,把整个效率算进去。现在其实所有的产品,包括OpenAI、微软的,包括Google的,用的越多亏的越多。我昨天还在西雅图,和微软、OpenAI的很多同事都有交流,未来一定会有大的变化,效率会提高很多,需要新的算法的架构,需要新的技术的架构”,张亚勤说。
第三,自主智能。“现在我们把大模型作为一种工具,它也可以把别的模型作为工具,它可以制定目标、规划任务、自动升级,完成目标,已经有产品开始出现,完全是自主的,不需要人为在中间交付和控制”,他说。
第四,边缘智能。现在大模型用在云端,现在已经开始要放在手机上,要放在PC上,包括放在电视上,放到各种
机器人上,放到各种IoT的边缘上,边缘也会有智能。
第五,物理智能或具身智能,把大模型用到物理世界去,包括无人车,包括各种机器人。
第六,生物智能。大模型用到人的大脑,用到生命体、生物体里,信息智能、物理智能和生物智能三个融合。
张亚勤还介绍,由于大模型的推出,加速了无人驾驶技术的发展。“在做无人车的时候,大的难点是长尾效应。不管有多少测试的数据,总有些场景是顾及不大的,这时安全性十分重要。长尾很多方面可以用大模型帮我们补足”。
“特别是生成式AI,可以让我们生成很多很多我们平时测试或者想象不到的场景,包括用新的多模态的一些生成的工具。以后的数据,不管车也好,机器人也好,90%以上都是要生成的,10%以下是真实的数据,而且生成的数据本身的效率和本身的质量会更高,以后我们会看到用自己生成的数据来训练自己”,张亚勤说。
张亚勤透露,自己一直在做无人车,可能两年左右,无人驾驶就会出现ChatGPT时刻。“因为现在无人车技术已经比有人驾驶安全N倍,安全很多,技术方面已经实现了,这个当然要商业运营,有很多别的方面的因素,但是我十分有信心看到在未来的两年,能看到一些无人驾驶的ChatGPT的时刻”。
张亚勤还介绍了强脑科技的脑机接口,“非植入式的,用了很高品质的传感器,用脑电的信号、行为的信号做脑机的接口,有空可以参观它在杭州的公司,我10月份去,十分震撼。这位工程师完全用了感知的信号,sensor信号,用了人工智能的算法,装了之后,他写的书法绝对比我写的好多,完全用意念、用信号控制。包括小女孩可以弹钢琴,包括对我这种睡眠有问题的,可以帮助我睡眠”。
不过,张亚勤指出,现在人工智能的大模型,不管是语言模型、视觉模型和多模态的模型,由于功能强大,未来发展可能带来的机会,但也蕴含很多风险。
第一个风险是信息方面的风险。“这个风险一直存在,但是由于大模型可以完全逼真模拟声音、模拟
图片,现在可以模拟
视频。美国现在马上总统竞选,已经有很多人在模仿拜登、川普,他们害怕影响选举的公正性,这确实是一个问题”,“现在的技术强大到这么一个时刻,我们要注意这个风险”。
第二个风险,当信息智能拓展到物理智能、生物智能的时候,如果大模型失控或者是被坏人所利用,会造成很大的风险。“以后,我相信大模型作为操作系统,作为工具,会用到所有的地方,包括我们的金融系统,包括我们的军事系统、决策系统,这个时候风险就会指数性地增加”。
第三个风险,生存风险。“前段时间大家可能注意到,大家谈到人工智能大模型所带来的可能和核武器、流行病一样的风险。我签署了一个呼吁,我自己是很乐观的,但是我们要有这样的一个意识。现在我们处于人工智能研究和产品比较早期,我们有很多办法可以去改变它的走向。但是如果我们没有这样的意识,永远不会去改进它的风险”。
张亚勤还给出了大模型发展的几点建议:
第一,要建立分级体系,特别是对前沿大模型。张亚勤说,对于一般的人工智能大模型不需要太多监管,但是对像Sora这样的大模型,一定要有监管,包括场景的约束,需要有评估体系。
第二,实体的映射。“我自己一直在做技术,喜欢创新,不希望被管。但第一次我认为前沿大模型需要更多地治理,包括AI产生内容的标识”。“至少你要让大家知道这是AI产生的。我们现在不管搜索也好,平台上做一个广告,要标识广告,尽管那个‘广告’两个字越来越淡,越来越看不见了,但至少要标识。我们做个数字人,做个AI的内容你是不知道的,你需要标识,这是基本要去做的”。
张亚勤强调,以后做智能体机器人,无论软件或者硬件,一定需要有一个对应的主体。“如果它犯了错误,出现问题,一定要能追溯到主体”。
第三,做前沿大模型的公司,包括国家基金会、科研机构,要把投资的10%用来做AI风险的研究。“不仅仅是政策的研究,还有很多很深的学术研究和技术研究,从事技术的人必须现在就开始对此进行研究,使得研究者和企业、政府共同前进,而不是对立的关系”。
“现在,我们进入了人工智能时代,从过去多个算法、多个任务、很多模型,走向相对统一的大算法、多模态,自训练、自监督和预训练的大模型”,张亚勤说,模型越大对物理世界的描述就越准确。据张亚勤预测,到2030年,全球数字经济会达到20万亿美元,其中约10%是由大模型、生成式AI所创造的。