MIT Technology Review实际走访了美国Oregon州的Prineville,Facebook在这个9,000人的小镇存放了数亿用户的数据。在总面积达80万平方英尺的4栋大楼中,安装了一排又一排的电脑。
Facebook近期在Prinville加了一些运算能力更强的 服务器Big Sur,搭配强大的GPU芯片,要让软体可以完成更多的任务,例如进行翻译、或担任虚拟助理等。
这些芯片,正是人工智能科技的基础,促进深度学习的发展。现在的软体可以了解图像和语言,正是因为GPU的效能精进,让软体可以处理更大、更复杂的数据。
GPU可以把照片切割成很细的单位,然后同时分析。在每一台Big Sur 服务器上,都有8个NVIDIA的GPU。Facebook工程师Kevin Lee并未指出目前Facebook有多少个这样的 服务器,不过他表示,目前运作的GPU有数千个。
Lee表示,他们会帮助Facebook的研究人员训练这些软体,让软体效率变得更快。这些 服务器都是有专门设计的硬体,用于人工智能研究和机器学习。
由于GPU极度耗能,所以不能在 服务器上放得太密集,避免造成所谓的“热点”,造成散热困难。在一个7英尺高的机架中,只能装设8台Big Sur 服务器;如果是一般的Facebook 服务器,可以装30台。
除了Prinville的数据中心之外,Facebook在Ashburn与Virginia的数据中心,都有这样的Big Sur 服务器。目前包括微软(Microsoft)、Google和百度等,都仰赖GPU进行深度学习研究。
Facebook已经公开了Big Sur的设计。事实上,Facebook在2011年启动了开放运算平台计划(Open Cloud Project),鼓励各家公司一起设计低价、高效能的数据中心硬件。这项计划也让亚洲硬体公司挤压了传统厂商如惠普(HP)和戴尔(Dell)的空间。
未来的机器学习 服务器,也可能不会以GPU为核心。许多公司都在研究新的芯片设计。
例如Google在5月宣布,已经开始研发自己的芯片设计,名为TPU,专门用来支持语音辨识等功能所需的深度学习软体。NVIDIA以及新创公司Nervana Systems等,也在研发客制化的深度学习芯片。