alphago zero 有多强

alphago zero 有多强,第1张

AlphaGo Zero是谷歌下属公司Deepmind的新版程序。
从空白状态学起,在无任何人类输入的条件下,AlphaGo Zero能够迅速自学围棋,并以100:0的战绩击败“前辈”。
2017年10月19日凌晨,在国际学术期刊《自然》(Nature)上发表的一篇研究论文中,谷歌下属公司Deepmind报告新版程序AlphaGo Zero:从空白状态学起,在无任何人类输入的条件下,它能够迅速自学围棋,并以100:0的战绩击败“前辈”。Deepmind的论文一发表,TPU的销量就可能要大增了。其100:0战绩有“造”真嫌疑。[1] 它经过3天的训练便以100:0的战绩击败了他的哥哥AlphoGo Lee,经过40天的训练便击败了它的另一个哥哥AlphoGo Master[1]

一个月前,DeepMind创始人Demis Hassabis曾说道很快会有关于围棋研究的惊喜,而1月28日的《Nature》杂志即将以封面论文的形式介绍Google旗下人工智能公司DeepMind开发的一款名为AlphaGo的人工智能,它已经击败了欧洲围棋冠军,并将于3月与世界冠军李世乭对战。该程序采用了两个深度神经网络,policy network与value network,极大地降低了需要考虑的搜索空间的复杂度,前者降低搜索的广度,后者降低搜索的深度,很像人脑在下围棋时凭直觉快速锁定策略的思维。
这么说起给一点时间,巅峰的吴清源,李昌镐这类人物(即使不断学习)也是下不过电脑的了 (我指的电脑就是2015一台中等配置的PC这样,不是服务器集群,类似普通电脑跑Pocket Fritz 4)
今天(3-12-2016) AlphaGo 已经3:0领先Lee Sedol了
这个并不是太出人意料。我记得十年前就有人说,十年内这个问题可以解决。可能那时候他就已经有点思路了吧。
这个问题能解决到这个程度,Google的确做出了很大的贡献,我想很多同样看上去很难的问题也并不是不能解决,而是我们愿不愿意解决,愿意花多大的精力在上面。我觉得这点启发非常重要,尤其是在深度网络这类新技术出现的时候,有很多地方简单地应用一下就能有新的突破。
老实说,我看了AlphaGo的思路,跟我之前的思路差不了太多,我在2015年1月份就看过一篇利用卷积神经网络来下棋的论文(神经网络可能终将在围棋上打败人类),并且有种豁然开朗的感觉,还想出了改进的思路(论文中的程序实际上有比较明显的缺陷,而去掉其中的缺陷就是一条更为完善的思路),真正的理论层面的突破是那篇论文,那篇论文写出来,就决定了今天只用了一年左右的时间AlphaGo能达到这个程度,Google的贡献在于将理论更好地改进和实践了,他们更有实力来解决这样的问题,不是像那篇论文里的程序,使用比较纯粹的神经网络,那样想要达到顶尖水准很有难度。
值得反省的是,为什么围棋作为东方人的游戏,却不是我们自己来解决这个问题?我觉得国内一定有人看到解决思路了,既然我这种业余爱好者都能看出点眉目。

2016年3月9日,谷歌旗下Deepmind的围棋程序“AlphaGo”就要和职业九段李世石对决了。去年10月,这个程序战胜了中国棋手职业二段樊麾;那是围棋AI第一次在公平比赛中战胜职业棋手。这一成果登上了今年1月的《自然》期刊,也引发了极其热烈的讨论——而最常被提出的问题就是,AI是不是终于要占领全世界了?
会唱歌,更会说冷笑话的Siri 来源:Apple
这个问题并不算杞人忧天,某种意义上AI已经占领了:从苹果的Siri,到日常浏览的搜索引擎,再到网络的文章推荐和商品推荐系统,这些全都是人工智能——哪怕它们不是科幻小说里那种,我们的日常生活也已经很难和它们分开。
但AlphaGo又和这些常见的AI不同。它们的差异在于学习方法和技术的通用性。
Siri:一个照本宣科的助手
Siri是一个“智能助手”,能听懂我们的口头命令,帮我们在网上搜索,帮我们在列表中找到联系人。但它的原理很简单:通过声音识别技术,将声音转化成语言的基本元素,比如元音、辅音、单词,然后和系统中内置的特殊命令比较。如果对比出来的是一个实际问题,那就执行相应的指令;如果对应上了一个空泛的问题,就从相对的段子库里挑个段子出来。
所以它的问题也就一目了然:要是你命令它去做系统中没有的命令,它就扑街了。Siri虽然是AI,但它是一个非常局限的AI:只能解决预先写好的问题。
面对东北大哥的挑衅,Siri懵逼了(也可能只是怂了。来源:Apple
深蓝:下棋无人能敌,但只限下棋
1997年,IBM制造的国际象棋机器“深蓝”战胜了当时的国际象棋世界冠军卡斯帕罗夫。这在人工智能历史上是一个标志性事件。但是,虽然深蓝战胜了世界冠军,它有和Siri一样的缺点:太专了。
作为程序,深蓝的软件是专门为国际象棋设计的。它评估盘面的四项标准包括子力、棋子位置、王的安全性还有布局节奏——显然,这些指标完全依赖于国际象棋本身的规则,没有任何扩展性。
卡斯帕罗夫对战“深蓝”的场景。来源:musejhuedu
即便如此,它也还是非常依赖于“蛮力”的。深蓝的硬件是当年最快的下棋机器,虽然有系统帮助筛选,它每秒依然要评估20亿个可能局面。为了应对这一需求,IBM当时为它开发了定制的硬件。
其结果就是,与其说它是一个国际象棋程序,不如说是一台国际象棋机器。深蓝只能下国际象棋,学不会围棋,连简单的五子棋也学不会。相比之下,作为人类的卡斯帕罗夫能学围棋,能学五子棋,还能学画画。深蓝的技术就像一把专门为国际象棋设计的钥匙,有很大局限。
自动驾驶汽车:迈出新方向
自动驾驶汽车的原理可以简化为以下几步:
首先它通过感应器了解周围环境,就像司机使用眼睛观察周围情况;
然后通过联网获得道路的路线情况,就像我们开车时候使用导航软件;
再然后计算机程序判断附近行人,汽车会如何运动;
最终计算自己最佳的线路,按着这条线路控制汽车的速度和方向。
Google的自动驾驶汽车。来源:Google
它特定于自动驾驶领域,但是基本思想和AlphaGo已经有些接近了。
IBM Watson:泛用的智能
2011年,IBM Watson在美国的真人答题节目Jeopardy!上击败了人类选手,它的技术理念更像AlphaGo。Watson的决策由四个步骤组成:首先是观察,从环境中收集数据,然后对数据做出假设,再然后是评估这些假设,最后是做出决定。不过也有些和AlphaGo不同的地方,首先它被设计成一个问答机器,其次训练Watson的时候需要人类专家的参与——比如关于癌症的问题,需要科学家们在海量的书籍论文中剔除过时的信息、错误的信息,把整理出的资料喂给机器。但至少,它能处理许多领域的能力,让它比它的同行们具有强得多的扩展可能:现在Watson已经被用于医疗领域了。
IBM Watson的logo 来源:IBM
那么,AlphaGo的技术思想是什么呢?
Deepmind创建AlphaGo,是试图通过增强学习技术(Reinforcement learning)构建通用的人工智能。它的理念中包含两个实体,一个是人工智能本身,一个是它所处的环境。人工智能和环境间的关系有两种,一种是通过传感器感知数据,另外一种是通过特定动作影响环境。因为环境的复杂性,它无法获得所有的信息,因此需要不断重复感知-反应的循环,以期望能在环境中有最大收益。绝大多数哺乳动物,包括人在内都符合这套规则。
增强学习技术不断地感知和反馈环境中的信息。来源:Google
在AlphaGo之前,他们已经利用这种思想,让AI打游戏。2015年,在《自然》杂志上发表的一篇论文,描述了如何让一个算法玩不同的Atari程序,包括了《太空侵略者》和《打砖块》等游戏。AI和人一样看游戏视频,和人一样 *** 作游戏,从游戏小白慢慢学习,变成游戏专家。AlphaGo也基于同样的原理,模拟人学习围棋的方法,它和人一样下棋,慢慢学会如何像专家一样思考。
这种技术理念所要求的是原始的数据,因此比起那些需要输入人工整理后的数据的方法有更强的通用性。原则上AlphaGo去学个围棋,五子棋都不是问题。
AlphaGo的技术首先被用于游戏的原因是因为,游戏比现实问题简单很多,无论是棋类游戏还是电脑游戏。游戏也很可能是类似技术第一个投入实用的领域:毕竟,随着游戏技术的发展,游戏开发者们逐渐意识到了好的AI和逼真的图像同样重要,不管是即时战略游戏,比如《星际争霸》还是角色扮演游戏中的NPC,高级人工智能不仅能成为强有力的对手,也可以变成优秀的团队伙伴。
但是,它最强之处当然是适应力和学习力。Deepmind声称,这种技术理念很快会被运用到医疗领域,尝试解决个性化医疗的问题。而这,肯定只是第一步。

自“人工智能”一词在1956年达特茅斯学院的会议上被提出后,这个词随着人工智能的发展越来越多地出现在人们的视线中。而随着时代的不断的推进,人类对人工智能的异军突起显得越来越害怕,那么我们到底在害怕什么?难道我们已经忘了研究人工智能的初衷了么?

目前,对于人工智能,人们基本持有以下三种观点。

首先,对人工智能的研究抱有乐观态度的,一般是科技工作者。他们一般都集中于谷歌、微软、阿里巴巴、华为这样的公司,这些企业基本都处于人工智能研究的前沿领域。

第二种观点就是反对,强烈地反对,代表人物就是著名的物理学家霍金。霍金曾经在2014年接受BBC的采访,当被问到对于AI的态度时,他表明:“人工智能的全面发展将宣告人类的灭亡。”

他的担心并不是杞人忧天,现在已经有更多的科学家在警示人类,发展人工智能将会把人类送入坟墓。他们所依据的理论是:从目前看来,人工智能对人类并没有什么威胁,因为它们还处于弱人工智能阶段;但是等到人工智能通过深度学习掌握了向强人工智能进化的途径,那就会在很短的时间内超越人类。

第三种态度,保持中立,也就是观望。持这种态度的最多,大约有50亿人——你没有看错,就是这个数目。确切地说,就是我们绝大多数人,都在观望,都在期待科学家和专家们帮助我们解决这个难题,或者等待国家***来解决问题。但是在这里,我想告诉大家,这件事不仅和我们都有关系,而且有很大的关系,因为全人类是一个命运共同体。

1957年,美国科学家司马贺曾预言10年内计算机下棋将击败人类。到1997年时,这个预言实现了,国际象棋冠军加里·卡斯帕罗夫输给了IBM的计算机“深蓝”,标志着国际象棋领域被机器攻陷,尽管比预计时间晚了30年。

到2016年3月9日,这个预言又一次上演。拥有1200多个处理器的谷歌人工智能系统AlphaGo,在深奥的围棋棋盘上把世界围棋冠军、韩国棋手李世石逼到绝路,曾经独孤求败的九段高手不得不投子认输,总比分以1∶4落败。战胜李世石之后,AlphaGo又在一系列在线匿名比赛中击败了数十位知名棋手。

那么,我们到底在害怕人工智能什么呢?人工智能强大了,难道不是可以更多地帮助我们人类吗?

其实,我们在害怕自己,怕自己拥有了它们之后,一日三餐,甚至连起床、上床都是它们帮我们完成,我们不用多消耗任何一点能量。可这样下去,我们最后发现,在它们眼里人类一无是处,我们将没有任何梦想,也没有任何动力。那时,才真正是它们支配着我们的生活,不是吗?

我们真的有必要害怕吗

现在我们每个人都知道这个名词——人工智能,而且知道自己害怕它们,在之前的漫长历史中,没有过这样的恐慌。但是我们人类真的需要害怕吗?人类,是世界上最聪明、拥有最强大脑的物种,需要害怕自己造出来的一堆“机器”吗?与其害怕,还不如反省。在对待人工智能的态度上,自负和欲望是带领人类真正走进坟墓的助推剂,因此,真正让人类害怕的应该是我们的内心。

不是因为我们太过强大,而是因为太过自负,这个世界上有相当多的一部分人到现在还在做着人类可以掌控一切的美梦,以为人工智能只能成为人类的工具。而在人类做着这样的美梦时,人工智能正在一点一滴地追赶着人类的科技文明。但是,目前人工智能还没超越那个“度”,它的发展存在三个阶段。

第一个阶段,人工智能应该需要100年的时间来追赶这个“度”。

第二个阶段,是它们跨越这个“度”。所需时间或长或短,有可能是一个小时或者一秒钟。

第三个阶段,当它们跨越过这个“度”后,将会花很短的时间甩开人类数千年的科技文明。在这之后,人类不要再妄想理解它们,因为它们已经超越人类文明太多了。

另一方面,人类的欲望是无限的,因此,对于人工智能这样具有巨大潜力的技术是不会放过的。例如AlphaGo,即使在围棋领域已经很强了,但是科研人员并未止步,接着研发出AlphaGoZero,并且已经具备自主学习的能力。

目前人工智能还处于弱人工智能阶段,在人类的控制范围之内,还有很大的发展空间。但是,可以想到,在人类永不知足的欲望驱使下,人工智能会越来越强大,直到发展到人类无法掌控的地步,到那时就真的无法挽回了。

因此,对于人工智能,我们真的没有必要害怕,相反,控制住自己的内心才是最正确的选择。也只有控制住我们的欲望和自负,才能将人工智能的发展掌握在人类的可控范围之内。

我们要确信一点,人工智能在大数据和深度学习两个工具的帮助下,刚开始成长的速度会很慢,但是之后会慢慢变快,直到突破人类的控制,那应该就是一瞬的过程。如果它们超越了那个“度”,我们真的没有必要去害怕和恐慌些什么了。因为,我们在它们眼里,只是一行数据而已。

“人工智能的进步经常会引发人类对于自己将被淘汰的担忧,希望这样的机器最终不会替代生物大脑,而是成为大脑的助手,就像造纸术和搜索引擎等技术那样。毕竟,用机器发明新的方法来解决问题,可以推动人们走上更新、更高效的道路。”DeepMind的发言人希瓦尔这样说,“AlphaGo的好处就是鼓励人类棋手去质疑这项历史悠久、传统深厚的技艺旧有的智慧,并做出新的尝试。”

败给AlphaGo之后,柯洁研究了计算机的走法,以求开辟新思路。随后,他在与人类对手的对弈中连胜22局,即便以他的水平,这也是一个令人赞叹的成绩。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zz/12630743.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-26
下一篇 2023-05-26

发表评论

登录后才能评论

评论列表(0条)

保存