Wedbush对ARK投资公司14万亿美元的人工智能市场机会论提出了8000亿美元的现实检验。
现在有多份报告表明,尽管NVIDIA尽了最大努力,但可能无法跟上大规模的AI芯片需求。DigiTimes最近的一份报告表明,随着公司看到其最新GPU的订单急剧增加,该公司已经开始增加其在台积电的芯片产量。
NVIDIAA100采用台积电7纳米工艺节点,而去年5月开始出货的H100则是基于台积电4N工艺节点(为NVIDIA设计的5纳米节点的优化版本)。自推出以来,该公司已经看到对其H100和DGX H100 GPU驱动的服务器的巨大需求。尽管NVIDIA一直努力跟上需求,但最近的人工智能热潮对该公司跟上需求的努力造成了巨大阻碍。
NVIDIA旗舰产品Hopper H100 GPU
在中国,该公司正在提供其A100和H100 GPU的改进版,以绕过美国的制裁,称为A800和H800,这些芯片的价格比原MSRP高出40%。中国现在对这些人工智能GPU的需求如此之大,甚至连V100(2018年推出的GPU,也是第一款采用Tensor Core架构的GPU)的价格也维持在1万美元左右(7万元人民币)。NVIDIAA800的售价更是高达25.2万人民币或3.65万美元。
据报道,交付周期也受到了影响,因为NVIDIA希望首先满足其非中国技术合作伙伴的需求。因此,NVIDIA的GPU在中国的交付时间原来是3个月左右,现在还得多等3个月,有些情况下甚至更高。
在之前的报告中,我们提到了NVIDIA对HPC和AI GPU的需求会扰乱游戏芯片的供应,因为该公司希望将更多的资源分配给AI,它称这是PC和科技行业的一场革命。预计需求迟早会超过供应,但NVIDIA正在夜以继日地工作,以确保它仍然可以向其最大的合作伙伴提供体面的芯片供应,这些合作伙伴愿意支付额外的价格来确保世界上最顶级的AI芯片。NVIDIA也是ChatGPT背后的主要推动力,其数千个GPU正在为当前和最新的模型提供动力。