来源:英特尔
对于市场上最关心的下一代Max系列GPU芯片FalconShores,英特尔在周一给出了一系列参数预告:高带宽内存(HBM3)规格将达到288GB,支持8bit浮点运算,总带宽可达9.8TB/秒。对于ChatGPT这样体量越来越大的人工智能模型而言,对于更强大芯片的需求可谓是无穷无尽。作为对比,英特尔今年初发布的Max1550的HBM2e内存规格为128G。
当然,与算力霸主英伟达相比,英特尔的AI芯片业务几乎属于完全没有市场份额的状态。作为传统芯片大厂,英特尔虽然早在2021年就展示过代号为“PonteVecchio”的旗舰数据中心GPU,但实际交付的不断拖延也令公司错过了这一轮AI大爆发的机会。
英特尔在周一表示,公司已经接近完成向美国阿贡国家实验室交付基于PonteVecchio的Aurora超级计算机。英特尔也强调这款系统的表现会优于使用英伟达H100芯片的HPC。
曾为“曼哈顿工程”做出重要贡献的阿贡国家实验室也表示,将利用这款超算为科学研究社区开发一系列生成式AI模型。完整的Aurora包含63744个GPU和21248个CPU,还有1024个DAOS存储节点。
但对于英特尔的AI芯片战略而言,最大的不确定性是FalconShores进入市场的节点不会早于2025年,届时英伟达很有可能会拿出更强的竞品,而跃跃欲试AI赛道的另一家竞品AMD,也将在今年末推出MI300芯片。
英特尔副总裁兼超级计算事业部总经理JeffMcVeigh周一表示,在放弃之前把CPU和GPU结合在一起的策略后,公司正在花时间重新设计芯片。虽然公司渴望拥有市场上最强的CPU和GPU,但很难说同一家供应商能同时凑齐两者的最佳组合。反过来说,如果拥有独立的产品,就能在平台级别的选择中展开竞争。