图源Pexels
人工智能推理是指利用已经训练好的人工智能模型,在实际场景中进行各种任务,如生成文本、回答问题、识别图像等。埃杜诺夫表示,他通过简单的数学计算,估计了明年全球推理需求的用电量。他假设,明年全球会新增100万到200万个Nvidia H100图形处理器,每个处理器的功率约为1千瓦。如果每个处理器每天运行24小时,每人每天可生成10万个“token”。他认为以人类规模来看,这用电量尚属合理。全球仅需新增两座核电站,就可以提供足够电力。
不过IT之家注意到,埃杜诺夫也指出,人工智能的发展还面临着一些挑战和限制,其中之一是数据量的问题。目前,人工智能模型的训练需要大量的数据,而公开的互联网数据已经不足以支撑下一代模型的训练。下一代模型可能需要10倍的数据量,这意味着需要更多的专业领域的数据,或者更多的多模态数据,如
视频、音频等。另一个挑战是供应链的问题。由于全球芯片产能的紧张,人工智能模型的改进速度也会受到影响。因此,研究人员正努力提高模型的效率,以减少对数据和硬件的依赖。例如,Salesforce公司开发了Blib-2,这是一种能够自动调整模型大小的技术,可以根据不同的任务和资源需求,动态地缩小或扩大模型。
业内专家普遍认为,语言模型在两年内将为企业带来巨大价值。埃杜诺夫预计,三四年内我们将知晓当前技术是否能实现通用人工智能。