热搜: 佳士科技irobot开云电竞官网下载app机器人ABB机器人产业联盟发那科库卡码垛机器人机械手

Facebook Big Sur 服务器 成人工智能发展利器

日期:2016-07-20 来源:元器件交易网 作者:XZJ 评论:0
标签:
  Facebook的Big Sur 服务器,在设计上运用了高效能的GPU,这也是公司发展人工智能与深度学习技术的利器。
  MIT Technology Review实际走访了美国Oregon州的Prineville,Facebook在这个9,000人的小镇存放了数亿用户的数据。在总面积达80万平方英尺的4栋大楼中,安装了一排又一排的电脑。
  Facebook近期在Prinville加了一些运算能力更强的 服务器Big Sur,搭配强大的GPU芯片,要让软体可以完成更多的任务,例如进行翻译、或担任虚拟助理等。
  这些芯片,正是人工智能科技的基础,促进深度学习的发展。现在的软体可以了解图像和语言,正是因为GPU的效能精进,让软体可以处理更大、更复杂的数据。
  GPU可以把照片切割成很细的单位,然后同时分析。在每一台Big Sur 服务器上,都有8个NVIDIA的GPU。Facebook工程师Kevin Lee并未指出目前Facebook有多少个这样的 服务器,不过他表示,目前运作的GPU有数千个。
  Lee表示,他们会帮助Facebook的研究人员训练这些软体,让软体效率变得更快。这些 服务器都是有专门设计的硬体,用于人工智能研究和机器学习。
  由于GPU极度耗能,所以不能在 服务器上放得太密集,避免造成所谓的“热点”,造成散热困难。在一个7英尺高的机架中,只能装设8台Big Sur 服务器;如果是一般的Facebook 服务器,可以装30台。
  除了Prinville的数据中心之外,Facebook在Ashburn与Virginia的数据中心,都有这样的Big Sur 服务器。目前包括微软(Microsoft)、Google和百度等,都仰赖GPU进行深度学习研究。
  Facebook已经公开了Big Sur的设计。事实上,Facebook在2011年启动了开放运算平台计划(Open Cloud Project),鼓励各家公司一起设计低价、高效能的数据中心硬件。这项计划也让亚洲硬体公司挤压了传统厂商如惠普(HP)和戴尔(Dell)的空间。
  未来的机器学习 服务器,也可能不会以GPU为核心。许多公司都在研究新的芯片设计。
  例如Google在5月宣布,已经开始研发自己的芯片设计,名为TPU,专门用来支持语音辨识等功能所需的深度学习软体。NVIDIA以及新创公司Nervana Systems等,也在研发客制化的深度学习芯片。
更多> 相关开云电子链接
0 相关评论

推荐图文
推荐开云电子链接
点击排行
Baidu
map