在过去一年中,大量的人工智能工具已经成为主流,从ChatGPT这样的聊天
机器人到Midjourney这样的图像生成软件。但是,关于如何部署这项技术以及如何平衡风险和机会的决定牢牢掌握在企业参与者手中。
尖端的人工智能需要巨大的资源,使研究超出了学术界的范围
人工智能指数指出,多年来,学术界在开发最先进的人工智能系统方面处于领先地位,但现在工业界已经坚定地接管了。它说:"在2022年,有32个重要的工业界生产的机器学习模型,而学术界只生产了三个。这主要是由于创建此类应用程序所需的资源需求越来越大--在数据、人员和计算能力方面。"
例如,在2019年,OpenAI创建了GPT-2,一个早期的大型语言模式,或LLM--与ChatGPT和微软的Bing聊天机器人所使用的应用类别相同。GPT-2的训练成本大约为50,000美元,包含15亿个参数(一种跟踪模型规模和相对复杂程度的指标)。跳到2022年,Google创建了自己最先进的LLM,称为PaLM。这个模型的训练成本估计为800万美元,包含5400亿个参数,比GPT-2大360倍,成本高160倍。
人工智能发展对资源的要求越来越高,这使得力量的平衡向企业参与者转移。人工智能领域的许多专家担心,商业世界的激励机制也将导致危险的结果,因为公司急于推出产品,把安全问题放在一边以努力超越对手。这是许多专家目前呼吁放缓甚至暂停人工智能发展的原因之一,包括埃隆-马斯克在内的人物上周签署的公开信就是如此。
随着人工智能系统被更广泛地部署,滥用的事件也大量增加
该报告的作者指出,随着行业参与者将人工智能应用纳入主流,道德误用事件的数量也在增加。(人工智能、算法和自动化事件和争议库是这些事件的索引,指出2021年和2012年之间增加了26倍)。这些事件包括涉及特斯拉自动驾驶软件的死亡事件;在企业诈骗中使用AI制作的假音频;AI创建未经同意的假裸体图像;以及由错误的面部识别软件引起的许多误捕案件,该软件往往受到种族偏见的困扰。
随着人工智能工具变得更加广泛,错误和恶意使用案例的数量也会增加,这并不奇怪;就其本身而言,这并不表明缺乏适当的保护措施。但其他证据确实表明了其中的联系,例如微软和Google等公司有削减其人工智能安全和道德团队的趋势。
该报告还指出,立法者和决策者对人工智能监管的兴趣正在上升。对127个国家的立法记录的分析指出,包含"人工智能"这一短语的法案数量从2016年仅有的一项通过增加到2022年的37项。在美国,州一级的审查也在增加,2015年提出的此类法案有5个,到2022年提出的人工智能相关法案有60个。这种兴趣的增加可以为企业自律提供一种平衡。
不过,人工智能指数报告涵盖的内容远不止这些。你可以在这里阅读它的全文(https://aiindex.stanford.edu/report/),或者看看下面一些精选的亮点:
人工智能领域的私人投资十年来首次减少。全球私人对人工智能的投资多年来一直在攀升,但从2021年开始下降了26.7%,至2022年的919亿美元。
训练大型人工智能模型有环境成本。2022年的一篇论文估计,训练一个名为BLOOM的大型人工智能语言模型所排放的碳,是一名乘客从纽约到旧金山的往返飞行的25倍。相比之下,OpenAI的GPT-3估计其碳成本是BLOOM的20倍。
人工智能有可能帮助减少排放。2022年,Google子公司DeepMind创建了一个名为BCOOLER的人工智能系统,通过优化冷却程序,在该公司的数据中心进行了为期三个月的实验,减少了12.7%的能源消耗。(目前还不清楚Google是否曾更广泛地采用这一系统)。
中国人比美国人对人工智能更抱有希望。2022年的一项益普索调查发现,78%的中国受访者同意"使用人工智能的产品和服务的好处多于坏处"的说法。中国公民对人工智能的热情最高,其次是沙特阿拉伯(76%)和印度(71%)的受访者。美国受访者是受访者中最不热情的,只有35%的人同意上述说法。