人工智能大模型竞争进入新阶段
9月初,科大讯飞宣布讯飞星火认知大模型面向全民开放服务,至此,首批包括讯飞星火、百度文心一言、商汤SenseChat等在内共十余款人工智能大模型全部面向公众开放服务。另外包括腾讯在内的一些公司的大模型也通过备案,将择机面向公众开放。
人工智能大模型是指使用大规模数据和强大的计算能力训练出来的“大参数”模型,这些模型通常具有高度的通用性和泛化能力,可以应用于自然语言处理、图像识别、语音识别等领域。
此前我国多家企业和机构已经发布了大模型产品并进行了小范围内测,此次开放服务的大模型也意味着它们通过了相关部门备案。8月15日,我国正式实施《生成式人工智能服务管理暂行办法》。
百度公司科技与社会研究中心主任余欢介绍,文心一言自今年3月面世至今快速成长,熟练掌握的创作体裁超过200个,内容丰富度是发布初期的1.6倍,思维链长度是初期的2.1倍,知识点覆盖达到初期的8.3倍。效率方面,文心大模型训练速度达到原来的3倍,推理速度达到原来的30多倍。
科大讯飞董事长刘庆峰介绍,自5月6日首次发布讯飞星火认知大模型以来,已进行两次重大迭代升级,在文本生成、语言理解、知识问答、逻辑推理、数学能力、代码能力、多模态能力7大能力上持续进化。最近一次8月15日发布的讯飞星火V2.0升级发布会上,代码能力和多模态能力升级。
商汤公司相关负责人介绍,公司此次开放服务的大模型“商量SenseChat”的特点与能力包括高效处理大量文本,强大的自然语言对话、逻辑推演能力、广泛的知识储备与信息更新,支持简体中文、繁体中文、英文等和各种常用的编程语言。
“随着备案成功,各个参与方急切地想要展示年初以来的研发进展和成果。同时更快发布相关服务,就能获取更多的用户和行业反馈,从而进一步加速各自大模型的迭代和应用,获得尽可能多的竞争优势。”联想控股股份有限公司副总裁兼前瞻技术研究院院长于浩说。
大模型将为个人和产业赋能
已经上线的国内大模型开放了多个工具,有望成为普通人提升效率的“超级助手”。
刘庆峰表示,自上线测试以来,讯飞星火APP的用户已经开发出2万多个性化的人工智能助手,每个普通人能调用多个已经上架的人工智能助手,也能通过简单几步开发自己的专属助手,满足职场、营销、出行、生活、公文、客服等多种场景需求,帮助解决工作生活中的各种问题。根据讯飞星火认知大模型上线测试以来的数据显示,目前用户刚需使用场景依次集中在知识问答、内容生成、创意策划、生活百科和编程辅助等场景。
“大模型作为专家能力的自动化,可以在方方面面给普通人带来巨大的便利,例如可以帮助普通人学习知识、修改文章、生成方案等等。因此,大模型的集中发布可以让普通人快速接触、使用和了解大模型,大模型的良好体验将会提升普通人对大模型的信任。”中国科学院软件研究所研究员、中国中文信息学会秘书长孙乐说。
艾利艾智库相关负责人认为,此次集中上线有望加速国内大模型及下游应用商业化变现。目前行业已经具备大规模商业化条件,从供给端看,现有技术成熟度已可大规模辅助用户进行内容生产,下游应用供给多点开花,涉及绘画、写作和
视频等领域;从需求端看,在文娱碎片化、轻量化驱动下,用户内容消费需求指数级增长,传统生产方式导致行业成本压力剧增,急需通过人工智能生产内容来降本增效。
目前,多家公司正探索大模型在各行业的深度应用。9月初,腾讯混元大模型正式对外亮相并宣布通过腾讯云对外开放API接入服务。腾讯公司相关负责人介绍,腾讯云、腾讯广告、腾讯游戏、腾讯金融科技、腾讯会议、腾讯文档、微信搜一搜、QQ浏览器等多个腾讯内部业务和产品,已经接入混元大模型并取得初步效果,更多业务和应用正在逐步接入中。
“以大模型生成技术为核心,人工智能正在成为下一轮数字化发展的关键动力,为解决产业痛点带来了全新的思路。”腾讯集团高级执行副总裁、云与智慧产业事业群CEO汤道生说。
深圳云天励飞技术股份有限公司于今年7月首次公布了其大模型研发情况。公司相关负责人介绍,基于“天书”大模型,云天励飞与深圳龙岗政数局共同探索了大模型在政务咨询服务系统的应用,未来计划逐步拓展到其他政府机构和公共服务领域,如法务、金融、教育、医疗、交通等。
而对大模型研发公司而言,谁能够最快带来最佳行业应用,谁就能够获得最多的用户反馈和数据,进一步增加自身大模型的竞争优势。
“当文心一言向数以亿计的互联网用户大规模开放服务后,能够获得真实世界更多的人工反馈,将有助于基础模型的进一步改进与产品的更快速迭代,创造更优的用户体验。”百度创始人、董事长兼首席执行官李彦宏表示。
大模型处“婴儿期”仍待“反哺”
业内人士认为,当前国内大模型研发虽然进展迅速,但算力、Kaiyun官方网站app登录 等瓶颈仍待进一步突破,商业模式也还需进一步明晰。
在上海人工智能实验室教授林达华看来,千亿参数规模语言大模型的训练,最大的困难和挑战还不在于缺数据,而是试错成本很高。一个千亿参数的大模型,在千卡集群上面需要3个月训练。每一次更新都需要很大的算力支撑,训练的周期很长。
于浩认为,作为“底座技术”的大模型目前仍然处于“婴儿期”,其成长需要极其昂贵并耗能巨大的“算力暖房”,身边要围着一批专精人工智能算法优化的“专家保姆”,要供给海量的高质量“数据食材”。稍有不慎摄入“污染食材”或者对大模型“调教不严”,就极可能培育出“胡说八道”的“熊孩子”,给大模型企业造成难以估量的影响。
“考虑未来可持续发展,一方面是建设大模型基础设施引擎,筑牢底座,另一方面是培植小模型生态系统,进化出适应人工智能多样化小场景长尾需求的技术堆栈,用小模型解决实际问题,创造价值变现,再反哺大模型。”于浩说。
在谈到国内大模型的发展趋势时,孙乐认为,首先是随着大量高价值数据和用户反馈的获得,国内大模型的水平会迅速提升。其次,在应用方面大模型会大范围落地,并且在适合的场景会逐渐形成典型的应用范式。最后,大模型仍然会面临一些长期的科学问题,如可靠、可控和可信问题,同时也会在大范围的落地过程中发现新的科学问题,这些问题需要政府、企业界和学术界合力解决。
清华大学新闻与传播学院教授沈阳认为,国内大模型集中上线将催生一系列发展趋势,包括技术迭代加速、行业应用深化、商业模式多元化、数据和伦理问题凸显,以及国际化趋势。这些趋势不仅将影响模型本身的发展,还将对社会经济、法律规范和国际竞争格局产生深远影响。因此,各方需要密切关注,并做好相应的战略规划和应对措施。