
4月2日消息,显卡制造商Nvidia希望去引领人工智能的浪潮。目前,已经有几家大型公司数据中心在使用着Nvidia的技术来进行机器学习了。而现在,这家公司希望凭借一家廉价但高性能的开发套件来发展
机器人和互联网领域。科技网站Gigaom日前就撰文对Nvidia的未来计划进行了介绍:
智能机器人和智能设备将会进入千家万户,而芯片制造商Nvidia想要帮助实现这一点。他们并不会去开发算法或者是传感器,但他们的图形处理单元,或者说GPU,在处理任何形式人工智能所需的繁重计算任务上面可能会非常有用。
大多数
应用程序并不会单单使用GPU,而是从标准微处理器上将大多数计算密集型任务分担到它们身上。GPU加速这个概念在超级计算机工作负载上是非常常见的,同时也正于计算机视觉和识别物体领域变得无处不在。Nvidia高级计算部门总经理Sumit Gupta表示,在2013年,超过80%的团队都参与到了利用GPU进行的ImageNet图像识别竞赛当中。
在2013年3月,谷歌收购了DNNresearch,一家由多伦多大学Geoff Hinton教授所联合成立的深度学习创业公司。而促成这次收购的一部分原因就是Hinton的团队在2012年ImageNet大赛当中的表现。在比赛当中,他们由GPU供能的深度学习模式轻松超越了其他的方案。
“事实证明,深度神经网络的关键就在GPU上。”Gupta说道。这是因为深度学习算法在处理数据(图像或文字)和提取事物的定义功能上面通常需要大量的计算性能。特别是在训练阶段,当模型和算法需要被调试以提高准确度时,他们需要处理大量的数据。
Nvidia的不少客户都在使用他们的Tesla GPU来进行图像和语音识别,包括Adobe和百度。Gupta指出,Nvidia同时也在开发其他层面的机器学习。Netflix的建议引擎就是使用了这种技术(在Amazon Web Services云端),俄罗斯搜索引擎Yandex也使用了GPU来提供性能,IBM的Hadoop同样使用了GPU来运行聚类算法。
Nvidia对于机器学习可能会感到非常兴奋,因为在多年的时间里,他们都在推动GPU作为一个通用计算平台,而结果有好有坏。他们试图通过简单地对自己的处理器进行编程(通过自己开发的CUDA语言)来实现这一点,但Gupta指出,在如何效率地使用GPU的问题上面,他们在总体上还缺乏相关的知识。这也就是为什么那么多的真正创新依然还要取决于那些拥有真正并行计算能力来同时利用2500个或更多核心的大型用户。
但是,Nvidia的目光已经超越了服务器,并放在了机器人身上,他们希望在接下来的10年里凭借着这个领域来满足自己在机器学习上面的雄心壮志。上周,Nvidia公布了Jetson TK1开发套件,Gupta将其称为“超级计算机版的树莓派”。这个开发套件的价格为192美元,可使用CUDA进行编程,并包含所有必须的接口,以及一枚Tegra K1系统级芯片。
根据Nvidia的宣传,该套件适用于计算机视觉、安全和其他一些对于主流机器人至关重要的用途,Gupta也提出了这样一个问题,那就是如果智能设备都装备了这样的性能,物联网的发展速度将会有多快?虽然谷歌和Facebook可以在自己的数据中心内通过数万台服务器来训练大规模人工智能模型,但另一个宏大的目标是让结果算法在智能手机上运行,来降低立即需要被送到云端进行处理的数据量。
Nvidia预计,机器学习的兴起会在未来几年里带来“相当好”的收益增长。但除了一些明显的示例之外,Gupta并不愿意去预测他们的GPU最终会运行哪种类型的计算技术。“我们刚刚才搞清楚如何在少数事情上使用机器学习,但实际上,它可被应用的领域还有很多。”他说道。至于Jetson Kit,他补充道:“我们依然在想象我们可以用它做的事。”