新的模拟人工智能芯片仍在开发中,它能够在同一位置同时计算和存储内存。这种设计模拟了人脑的运作,从而提高了能效。该技术不同于当前的解决方案,当前的解决方案需要在内存和处理单元之间不断移动数据,从而降低了计算能力,增加了功耗。
在该公司的内部测试中,在评估模拟内存计算的计算精度时,新芯片在CIFAR-10图像数据集上显示出92.81%的准确率。IBM声称,这一精确度水平可与采用类似技术的任何现有芯片相媲美。更令人印象深刻的是它在测试过程中的能效,每次输入仅消耗1.51微焦耳的能量。
上周发表在《自然-电子学》(Nature Electronics)上的这篇研究论文还提供了有关该芯片构造的更多信息。该芯片采用14纳米互补金属氧化物半导体(CMOS)技术制造,拥有64个模拟内存计算内核(或瓦片)。每个内核都集成了一个256 x 256的突触单元交叉阵列,能够执行与一层深度神经网络(DNN)模型相对应的计算。此外,该芯片还配备了一个全局数字处理单元,能够执行对某些类型的神经网络至关重要的更复杂运算。
IBM的新芯片是一项引人关注的进步,尤其是考虑到近来人工智能处理系统的功耗呈指数级增长。有报告显示,人工智能推理机架的耗电量通常是普通服务器机架的10倍,这导致了高昂的人工智能处理成本和环境问题。在这种情况下,任何能提高处理效率的改进都会受到业界的热烈欢迎。
作为额外的好处,专用的高能效AI芯片有可能减少对GPU的需求,从而降低游戏玩家的价格。不过,值得注意的是,这目前只是推测,因为IBM芯片仍处于开发阶段。其过渡到大规模生产的时间表仍不确定。在此之前,GPU仍将是人工智能处理的主要选择,因此在不久的将来,GPU的价格不太可能变得更低。