Google 在
机器人学习上又进一步:周三,Google 旗下一研究团队宣布,他们开发了一套人工智能系统,可以自主理解和操作游戏,而且其水平分分钟超越人类游戏高手。
据彭博社报道,这套系统由初创公司 DeepMind Technologies 研发,Google 在去年收购了这家公司。Google 表示,它是 Google 开发具有自主学习能力人工智能技术的“第一个关键阶段”。
这套系统能自主操作 Atari 2600 游戏机上的 49 款游戏。在实验中,人工智能系统在游戏中打完一关,或者获得高分,会获得“狗粮”的奖励。
Google 的这套系统将储存和奖励整合,让机器人从环境中学习处理方法,并不断修正之后的行为。
最后,在 29 款游戏的测试中,人工智能系统都表现出色,成绩超过人类游戏熟手玩家。共 43 次超越知名游戏算法。比如在
视频弹球游戏 Video Pinball 中,人工智能系统能轻而易举打败人类,得分甚至较专业玩家高出 20 倍。
这项实验的目的并非单纯让你在游戏里开外挂,其背后的的
应用场景非常广泛。人工智能系统如果能自主观察、学习周围的世界,并主动采取措施,它将有很多用途。比如应用在 Google 无人驾驶汽车上。
尽管这仍与科幻
电影里的人工智能相去甚远,Google 的系统也只能胜任简单的小游戏,但这已经是不错的开端。DeepMind 联合创始人、Google 技术副总裁 Demis Hassabis 说:这套系统目前只是掌握和理解了游戏的结构,但并没有建立理性的认识,或抽象的知识。我们的最终目标是开发通用智能机器,但实现这一目标还需要数十年的时间”。
与之前的人工智能系统相比,Google 的这一设计是一个进步,因为微软、IBM、Clarifai 和 MetaMind 开发的图像识别系统通常需要人工干预。Hassabis 说,Google 将开发更先进的技术,人工智能系统也将模仿生物,增添长期记忆和战略规划系统。
短期内,这套系统有望在 3D 游戏中做到游刃有余,面对更复杂的环境可以继续完成游戏。如果这一成果变现,诸多领域都能得到实质性的应用。Hassabis 说:
如果人工智能系统能在赛车游戏中运行,那它就可能有能力驾驭真正的汽车。