问题是,为什么要花这么多的计算能力和时间来教AI?因为,像谷歌的DeepMind或IBM的Watson这样的现代神经网络必须并行地执行数十亿的任务。这需要调用大量的CPU内存,加起来迅速超千亿周期。研究人员曾提出,使用新的存储技术像电阻式RAM,可以永久存储数据,速度也与DRAM的一样的速度数据。最终,他们想出了新型芯片——电阻处理单元(RPU),即把大量的电阻式RAM直接放到CPU。
这种芯片能以最快的速度读取并同时处理数据,从而大大减少所需的神经网络训练时间和计算能力。 新闻报道:”相比于国家的最先进的微处理器,这种大规模并行架构RPU可实现3万倍加速,......以前需要在有数千台机器的数据中心培训几天,现在一个RPU加速器花上几个小时就能解决。”
科学家们认为,可能使用常规的CMOS技术来这样的芯片,但现在RPU仍处于研究阶段。此外,其技术的背后,如电阻式RAM,尚未实现商业化。然而,快速的本地内存芯片构建可以大大加快AI任务,如处理图像,掌握语言和大规模数据分析等。