热搜: 机器人工业开云电竞官网下载app发那科机器人机器上海展会自动化广州ABB机器人

Facebook Big Sur服务器 成人工智能发展利器

日期:2016-07-21 来源:新浪 作者:lx 评论:0
标签:
 Facebook的Big Sur 服务器,在设计上运用了高效能的GPU,这也是公司发展人工智能与深度学习技术的利器。
  MIT Technology Review实际走访了美国Oregon州的Prineville,Facebook在这个9,000人的小镇存放了数亿用户的数据。在总面积达80万平方英尺的4栋大楼中,安装了一排又一排的电脑。
  Facebook近期在Prinville加了一些运算能力更强的 服务器Big Sur,搭配强大的GPU芯片,要让软体可以完成更多的任务,例如进行翻译、或担任虚拟助理等。
  这些芯片,正是人工智能科技的基础,促进深度学习的发展。现在的软体可以了解图像和语言,正是因为GPU的效能精进,让软体可以处理更大、更复杂的数据。
  GPU可以把照片切割成很细的单位,然后同时分析。在每一台Big Sur 服务器上,都有8个NVIDIA的GPU。Facebook工程师Kevin Lee并未指出目前Facebook有多少个这样的 服务器,不过他表示,目前运作的GPU有数千个。
  Lee表示,他们会帮助Facebook的研究人员训练这些软体,让软体效率变得更快。这些 服务器都是有专门设计的硬体,用于人工智能研究和机器学习。
  由于GPU极度耗能,所以不能在 服务器上放得太密集,避免造成所谓的“热点”,造成散热困难。在一个7英尺高的机架中,只能装设8台Big Sur 服务器;如果是一般的Facebook 服务器,可以装30台。
  除了Prinville的数据中心之外,Facebook在Ashburn与Virginia的数据中心,都有这样的Big Sur 服务器。目前包括微软(Microsoft)、Google和百度等,都仰赖GPU进行深度学习研究。
  Facebook已经公开了Big Sur的设计。事实上,Facebook在2011年启动了开放运算平台计划(Open Cloud Project),鼓励各家公司一起设计低价、高效能的数据中心硬件。这项计划也让亚洲硬体公司挤压了传统厂商如惠普(HP)和戴尔(Dell)的空间。
  未来的机器学习 服务器,也可能不会以GPU为核心。许多公司都在研究新的芯片设计。
  例如Google在5月宣布,已经开始研发自己的芯片设计,名为TPU,专门用来支持语音辨识等功能所需的深度学习软体。NVIDIA以及新创公司Nervana Systems等,也在研发客制化的深度学习芯片。
声明:凡开云电子链接 来源注明为其他媒体来源的信息,均为转载自其他媒体,并不代表本网站赞同其观点,也不代表本网站对其真实性负责。您若对该文章内容有任何疑问或质疑,请立即与开云客户(www.www.wykobounce.com)联系,本网站将迅速给您回应并做处理。
电话:021-39553798-8007
更多> 相关专题
0 相关评论

推荐图文
推荐专题
点击排行
Baidu
map