本报讯人工智能(AI)可以在国际象棋、围棋、扑克和其他需要多种策略才能获胜的游戏中击败人类玩家。这款名为“游戏学生”(SoG)的AI由谷歌的DeepMind开发。该公司表示,这是朝着能够以超人的表现执行任何任务的通用AI迈出的一步。相关论文11月15日发表于《科学进展》。
曾在DeepMind从事AI研究的Martin Schmid,现在就职于一家名为“均衡技术”的初创公司。他表示,SoG模型可以追溯到两个AI模型。其中一个是DeepStack,这是由加拿大阿尔伯塔大学的Schmid等团队开发的AI,是第一个在扑克比赛中击败人类职业选手的AI。另一个是DeepMind的AlphaZero,它在国际象棋和围棋等游戏中击败了最优秀的人类棋手。
这两种AI模型的不同之处在于,一种专注于不完全的知识游戏——玩家不知道其他玩家的状态,比如扑克游戏中的牌;另一种则专注于完全的知识游戏,比如国际象棋,双方玩家在任何时候都能看到所有棋子的位置。这两者需要不同的方法。DeepMind雇用了整个DeepStack团队,目的是建立一个可以泛化两种类型游戏的模型,从而诞生了SoG。
Schmid表示,SoG最初是一份如何学习游戏的“蓝图”,进而通过实践来提高。然后,这个初学者模型可以在不同的游戏中自由发挥,并学会如何与另一个版本的自己对抗,以掌握新的策略并提高能力。尽管DeepMind之前的AlphaZero可以适应完全的知识游戏,但SoG可以适应完全和不完全的知识游戏,使其更具通用性。
研究人员在国际象棋、围棋、得州扑克和一款名为“苏格兰场”的棋盘游戏中测试了SoG,并在Leduc扑克和一款定制版的“苏格兰场”中测试了SoG,结果发现它可以击败几个现有的AI模型和人类玩家。Schmid说,它应该也能学会玩其他游戏。“有很多游戏你可以直接扔给它,它真的非常擅长。”
与DeepMind更专业的算法相比,这种广泛的能力使SoG在性能上略有牺牲,但仍然可以在其学习的大多数游戏中轻松击败最优秀的人类玩家。Schmid说,SoG学会了与自己对抗,以便在游戏中提高水平;同时也是为了从游戏的当前状态中探索可能出现的情况,即使它正在玩一个不完全的知识游戏。
“当你在玩扑克这样的游戏时,如果不知道对手持有什么牌,你就不清楚该如何找到游戏中的最佳策略。”Schmid说,“所以有一些来自AlphaZero的思维,还有一些来自DeepStack的思维,它们形成了一个庞大的思维体系,这就是SoG。”
未参与这项研究的英国爱丁堡大学的Michael Rovatsos表示,尽管这一研究成果令人印象深刻,但要想将AI视为通用智能,还有很长的路要走,因为与现实世界不同,游戏是一种所有规则和行为都被明确定义的虚拟环境。
“这里要强调一点,这是一个受控的、独立的人工环境,在这个环境中,每件事的意义和每一个动作的结果都是非常清楚的。”Rovatsos说,“这个问题是一个玩具问题,尽管它可能非常复杂,但它不是真实的。”(李木子)
相关论文信息:
https://doi.org/10.1126/sciadv.adg3256
《中国科学报》(2023-11-24第2版国际)