当地时间10月18日,谷歌人工智能团队DeepMind团队在在国际学术期刊《自然》(Nature)上发表论文,宣布新版AlphaGo——AlphaGo Zero可以在没有人类指导的情况下学习,其水平超过此前所有AlphaGo(阿尔法狗),仅用3天就碾压了此前击败李世石的旧阿尔法狗。
AlphaGo Zero仅拥有4个TPU,零人类经验,所以,它的名字叫作零(Zero),Nature这篇论文——《Mastering the game of Go without human knowledge》中,Deepmind展示新版本围棋程序AlphaGo Zero在数百万局自我对弈后,随着程序训练的进行,独立发现了人类用几千年才总结出来的围棋规则,还建立了新的战略。《自然》为该论文配发两篇评论文章,一篇来自计算机科学家,一篇来自围棋选手。
强大的围棋程序:可通过与自己对弈学习
今年5月乌镇大会上,中国棋手、世界冠军柯洁9段以0:3不敌AlphaGo。随后Deepmind创始人Hassabis宣布,AlphaGo将永久退出竞技舞台,不再进行比赛。
同时Hassbis表示:“我们计划在今年稍晚时候发布最后一篇学术论文,详细介绍我们在算法效率上所取得的一系列进展,以及应用在其他更全面领域中的可能性。就像第一篇 AlphaGo 论文一样,我们希望更多的开发者能够接过接力棒,利用这些全新的进展开发出属于自己的强大围棋程序。”
Deepmind如约在Nature发布了这篇论文《Mastering the game of Go without human knowledge》。
论文中,Deepmind展示了AlphaGo Zero一种新的强化学习方式,通过自我对弈学习AlphaGo Zero 成为自己的老师。这个学习系统从一个对围棋游戏完全没有任何知识的神经网络开始。然后,通过将这个神经网络与一种强大的搜索算法相结合,它就可以自己和自己下棋了。
在它自我对弈的过程中,神经网络被调整、更新,以预测下一个落子位置以及对局的最终赢家。这个更新后的神经网络又将与搜索算法重新组合,进而创建一个新的、更强大的 AlphaGo Zero 版本,再次重复这个过程。在每一次迭代中,系统的性能都得到一点儿的提高,自我对弈的质量也在提高,这就使得神经网络的预测越来越准确,得到更加强大的 AlphaGo Zero 版本。
这种技术比上一版本的 AlphaGo 更强大,因为它不再受限于人类知识的局限。在进行了3天的自我训练后,AlphaGo Zero 在100局比赛中以100:0击败了上一版本的 AlphaGo——而上一版本的 AlphaGo 击败了曾18次获得围棋世界冠军的韩国九段棋士李世石。经过 40 天的自我训练后,AlphaGo Zero 变得更加强大,超越了“Master”版本的 AlphaGo——Master 曾击败世界上最优秀的棋士、世界第一的柯洁。
人工智能的探索无止境
围棋起源于中国,已经流传了近3000年。2016年春天,AlphaGo与世界围棋选手李世石的一场世纪人机大战,标志着人工智能取得了历史性的突破,更引发了一波人工智能创业热。一年之后,高智能的机器来到中国,打败了中国的顶尖选手。
AlphaGo的诞生惊艳了世人,现在AlphaGo Zero又将机器能做到的极限往后推了几个量级。
DeepMind的CEO得米斯·哈萨比斯( DemisHassabis)表示,“对我们来说,AlphaGo不仅限于在围棋对弈中获胜,这也是我们开发通用算法的一大进步。”大多数AI被认为“用途有限”,因为它们只能执行单一任务,例如,翻译、识别面孔。但通用型AI在许多不同任务上拥有超越人类的潜能。哈萨比斯认为,在接下来十年,AlphaGo的迭代产品将成为科学家和医学专家,与人类并肩工作。
DeepMind团队现在正在研究如何将与AlphaGo Zero相同的算法应用到真正的科学挑战中,比如蛋白质折叠、降低能耗、寻找新材料或发现新药。哈萨比斯表示:“我们正在努力建立通用学习算法,而这只是向前迈出的一步,但它的确令人感到兴奋不已。AlphaGo团队许多成员现在正在开发其他项目,并试图将这项技术应用到其他领域。”
当被问及DeepMind使用了多少资金开发AlphaGo时,哈萨比斯表示,这个数字“可能相当可怕”,很难量化。大约有15名DeepMind顶级员工年薪在六位甚至七位数以上,他们已经全职研发AlphaGo很长时间,而且该公司使用了大量的谷歌计算能力。
人机大战已经落幕,但人类围绕人工智能的探索才刚刚起步。 |