从空白状态学起,在无任何人类输入的条件下,AlphaGo Zero能够迅速自学围棋,并以100:0的战绩击败“前辈”。
发展历史
编辑
2017年10月19日凌晨,在国际学术期刊《自然》(Nature)上发表的一篇研究论文中,谷歌下属公司Deepmind报告新版程序AlphaGo Zero:从空白状态学起,在无任何人类输入的条件下,它能够迅速自学围棋,并以100:0的战绩击败“前辈”。Deepmind的论文一发表,TPU的销量就可能要大增了。其100:0战绩有“造”真嫌疑。[1] 它经过3天的训练便以100:0的战绩击败了他的哥哥AlphoGo Lee,经过40天的训练便击败了它的另一个哥哥AlphoGo Master[1]
工作原理
编辑
抛弃人类经验”和“自我训练”并非AlphaGo Zero最大的亮点,其关键在于采用了新的reinforcement learning(强化学习的算法),并给该算法带了新的发展。[1]
战绩
编辑
AlphaGo Zero仅拥有4个TPU,零人类经验,其自我训练的时间仅为3天,自我对弈的棋局数量为490万盘。但它以100:0的战绩击败前辈。[1]
012017年10月19日,谷歌子公司DeepMind发布了AlphaGo的新版本。很多人知道AlpoaGo是一个人工智能程序,却不知道它其实是一个家族,早期战胜韩国选手李世石的是AlphaGo Lee。在乌镇击败世界冠军柯洁的是AlphaGo Master。本次发布的是AlphaGo Zero(阿尔法零),它经过3天的训练便以100:0的战绩击败了他的哥哥AlphoGo Lee,经过40天的训练便击败了它的另一个哥哥AlphoGo Master。
AlphaGo Zero与之前版本相比,最大的区别在于,它不再依靠人类的指导来成长,即之前的AlphaGo Lee是依赖于人工录入的大量棋谱来帮助其学习如何下棋,说白了,它是在人的指导下学习,可以理解为是人类千年围棋经验教出的学生。
而AlphaGo Zero使用了强化学习算法,即不再依赖任何棋谱,编程人员输入围棋基本规则后,不再进行任何教导,完全由其自己进行摸索,总结走棋方法,相当于人工智能完全按照自己的方法学习。AlphaGo Lee完败于摒弃了人类经验的AlphaGo Zero,这说明人类的经验可能误导了AlphaGo Lee,进而限制了它的发展。
AlphaGo Zero的行棋方式在开局和收官阶段,与人类选手有较大的相似之处,而盘中的行棋风格的确与人类选手和之前版本的AlPhaGo有较大不同,而正是这种不同让其可以在100次与AlphaGo Lee的交战中立于不败,换个说法,如果当初AlphaGo Lee没有拜人类为师,而是向机器学习,那么对于拥有更强计算能力的AlphaGo Lee来说,胜负还未可知。
除了零经验学习外,AlphaGo Zero的另一大特点是将之前版本AlphaGo的两个神经网络融为一体,在之前版本的AlphaGo上,如何走棋是由“策略网络”和“价值网络”两个神经网络来计算如何行棋的,即首先由“策略网络”利用之前累积的经验,判断在当前棋型下哪些位置适合行棋,之后由“价值网络”对在这些位置行棋后的种种可能进行模拟,计算胜率,最终选择出行棋位置。
而AlphaGo Zero将二者融为了一体,对之前两个网络的特征提取等模块进行了共用,可以在计算出可能行棋的位置时便给出相应的“胜率”,大幅提高效率,减少了训练所需的时间。这也是AlphaGo Zero在训练了三天就打败了训练了几个月的AlphaGo Lee的主要原因之一。
人工智能不仅是计算机科学领域发展的制高点,在所有行业都具有无限潜力和应用价值,目前世界各国普遍看好,人工智能技术将成长为下一次技术革命契机。即便最终人工智能没有达到革命级别的颠覆程度,AI已经在逐渐改变我们的生活。
以往人工智能的进步都是建立在软件与硬件同步发展的基础上,神经网络算法最早在上个世纪中叶就被提出,然而受限于计算能力,神经网络算法一直发展缓慢。
之后随着硬件计算速度的不断提高,已有的软件算法不断被实现并改进,改进的算法对硬件要求更高,从而进一步促进了硬件的发展,而AlphaGo Zero的出现完全建立在算法更新的基础上。
前一版本的AlphaGo需要在48个TPU(谷歌专为加速深层神经网络运算能力而研发的芯片,一块成本即达500万美元)上进行几个月学习,而AlphaGo Zero只需要4个TPU加上几天的时间便可完成学习。这种零经验学习能力非常适合在蛋白质折叠和其它缺少样本的医疗领域进行应用,可以很好地解决因缺少试验样本而导致研究进展缓慢的问题。未来的相关研究中完全可以输入规则后利用AlphaGo Zero的能力进行模拟,最后利用有限的样本进行验证即可。
AlphaGo逐渐升级之路
故事讲到这里,实在不得不佩服谷歌深厚的技术实力与精明的商业头脑。AlphaGo从诞生伊始,就得到了deepmind团队的精心包装,仔细回想起来,可谓是“城里套路深”。
从最初战胜低段位职业棋手开始预热或者说炒作,到战胜人类顶尖高手李世石,AlphaGo的登场已经足够华丽。不过4比1的比分还是给了人类一线希望,这仅有的胜局中,李世石剑走偏锋,直接把AlphaGo逼出了“大脑短路”的症状,可见此时AlphaGo虽已经足够强大,但尚不完美。此后各路人类高手开始卧薪尝胆,精研AlphaGo的套路,寄希望于重新捍卫人类尊严。
随后,一个神秘的“master”在围棋界顶级棋手的对战平台上取得了60胜0负的骄人战绩,这位master到底是何方神圣,是人是妖可谓是赚足了吃瓜群众的眼球。直到华丽的60胜达成,谜底才最终揭晓。
此后便是吸引了全世界目光的乌镇对决,AlphaGo Master把柯洁打到毫无还手之力。虽然柯洁已经表现出了真正的人类最强者战力,却仍然被AlphaGo完全压制,只要出招有任何一点闪失,立刻会陷入AlphaGo“最小优势胜”策略的陷阱,再无翻身余地。
乌镇对决之后,人类在围棋领域已经彻底甘拜下风,别说柯洁一人,五大高手联手作战比柯洁输得更快,AlphaGo一时风光无限。
如今,乌镇硝烟刚要散尽,谷歌又搞了个大新闻出来!人工智能在摒弃人类经验后,用三天时间自学的AlphaGo Zero打败了人类几千年的经验。AlphaGo的进化版打败了原始版,不禁叫人想起《铁甲钢拳》里叫人热血贲张的机甲肉搏,一个AI输给另一个更牛的AI,中国AI战胜美国AI,这很有可能是未来棋类竞技中的真实场景。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)