谷歌、IBM、微软的人工智能处理器

谷歌、IBM、微软的人工智能处理器,第1张

  现在科技领域最火的是什么?人工智能机器学习、深度神经网络显然是热点中的热点。太多我们认识中的不可能,被强大的机器学习、人工智能给颠覆了。

  比如去年Deepmind的AlphaGo就在围棋领域战胜了世界冠军李世石,让人感觉不可思议,在AlphaGo之前的软件,连业余六段左右的高手都赢不了,更遑论顶级职业选手!如果你是程序高手,有想法,是不是可以自己在家也能玩机器学习呢?稍微研究的深入一点,发现完全不是这么回事儿。

  笔者有朋友的孩子想在围棋上有所建树。他发现,下围棋的课外辅导班要花钱,找人指导下棋也要花钱,并且随着孩子棋力水涨船高,是以几何级数的价格增加的。他又听说人工智能的围棋已经很厉害了,能不能干脆一次性投资,弄个下围棋很厉害的软件与配置,这样就相当于一直与一个高手下对手棋,对棋力增长是有好处的。

  4路TItan X,2路至强E5已经很强……

  我一想,这逻辑也说得通,AlphaGo不也赢了人类高手并且人类在学AlphaGo下棋吗?于是找了找,目前使用6700K处理器的计算机跑日本围棋软件Zen,可以有业余五六段的棋力,但这显然不是他想要的。前几天与赵治勋对弈的deepzen,配置要高很多,核心是2个至强E5 V4与4个TItan X做GPU计算,虽然不敌赵治勋,但毕竟显示出来了可观的棋力。

  前几天Deepmind团队又放出了消息,棋力大涨,明年初开始重新下棋。我突发奇想,反正这老哥也不差钱,如果谷歌团队公开了软件,会不会可以自己弄个单机版的AlphaGo?天天和比李世石更厉害的AI下围棋肯定涨棋力更快啊。但是仔细一研究,不是这么回事儿,AlphaGo用的处理器,买!不!到!

  谷歌人工智能的处理器TPU

  这个表是谷歌发表《自然》杂志论文的时候给出的配置与棋力预估。当时只是说要多少CPU与GPU以及对应的棋力。如果说一个CPU对应一个核心,现在的至强E5V4,已经有22核心的产品了,而如果是对应一个CPU,那么48个CPU可能就要很贵的刀片服务才行了,当然了有万能的淘宝,二手机架式的刀片服务器也贵不到哪儿去。

  Deepmind团队公布的当时的配置,似乎让人觉得单机版的AlphaGo并非遥不可及,且棋力足够,在今年5月,谷歌又公布了其自己定制的处理器的细节。谷歌用的并非Intel或是AMD的处理器,而是自己针对机器学习优化过的处理器,并命名为“张量处理单元(tensorflow process unit,TPU)。而AlphaGo就是构建在TPU上的。

  TPU的作用就是给机器学习的神经网络加速。谷歌对TPU具体怎么工作、有哪些指令都语焉不详,作为局外人能获得的信息有限,甚至连哪个半导体工厂代工的都没人知道。谷歌说TPU是一种辅助运算工具,还是要有CPU和GPU的。核心在于TPU是8位的,而我们的处理器是64位,因此在神经网络计算上,TPU的单位功耗贡献的计算能力上,要比传统的CPU有很大的优势,更适合大面积的分布式的计算。

  IBM对于计算机模拟神经的计算启动,可能要比其它的企业更早。而研究的起源,也不能说全自主的,而是有外界的因素,那就是DARPA(国防部高级计划研究局)。

  IBM研究模仿大脑的神经计算,也来自于DARPA。自从2008年以来,DARPA给了IBM5300万美元用来研究SyNapse(Systems of Neuromorphic AdapTIve PlasTIc Scalable Electronics,自适应可伸缩神经系统,缩写的SyNapse单词正好是触突,神经的构成部分),而TrueNorth只是这个项目的一部分成果而已。

  IBM的TrueNorth芯片

  这项研究的意义是,我们今天的计算机,处理和存储是分离的,高度依赖总线进行数据传输交换,即所谓冯·诺依曼体系。我们大脑的处理方式则不同,要知道神经的传输速度并不快,但是大脑的优势是脑细胞多,靠的是大量分布式的处理,现有的模仿大脑的办法,还是依赖处理器的数量堆积,所以能效比不高,而IBM的TrueNorth则是要打破这个屏障,在芯片上就完成对神经元的模拟。2011年的原型就有256个神经元的原型。

  2014年,IBM的可编程神经元达到了4096个,可编程触突2.56亿,联合神经处理器有4096个。可以说IBM的TrueNorth是无心插柳,研究启动的早,业内深度学习热、神经网络热的时候,这颗处理器也成熟了,在IBM和DARPA的网站上,都有给予这个芯片进行视频内容识别计算的成果演示,非常有意思,可以去看看。

  微软的FPGA

  微软启动Project Catapult还是在2012年。当时微软的掌舵人还是史蒂夫鲍尔默。微软发现,硬件提供商无法提供他们需要的硬件。过去微软每年都要花费数十亿美元来购置硬件,但现有的硬件对机器学习这些搜索算法的效

  当年比特币挖矿机,FPGA显示出来比显卡高效、省电得多的特性

  微软的路线是是通过FPGA(field programmable gate arrays,现场可编程门阵列),它的特色是进行并行计算。还记得几年前的比特币狂潮吗?最开始人们是依赖显卡或是GPU,到后来矿机的出现,就是用的FPGA的能力来进行挖矿,当时也有疯狂的人挖到了第一桶金。

  运行Bing页面排名服务下,FPGA协助与没有协助的对比

  微软的FPGA被应用到了包括bing搜索引擎等领域,能够显著的提升效率。FPGA虽然编程困难,但是微软正在尝试将更多的应用,比如Office365等,加入到通过FPGA来提升服务质量上。微软的FPGA来自Altera,有趣的是,英特尔以167亿美元收购了这个公司,是英特尔史上最大的并购。

  英特尔:研发与收购并驾齐驱

  前面我们说了,微软和英特尔这对长期的伙伴,在微软的FPGA使用的是来自Altera的技术,英特尔就收购了这个FPGA与SoC的企业,现在再访问Altera的官网,已经是我们熟悉的Intel的Logo加上FPGA了,并且内容上也是机器学习、自动驾驶等热门内容。

  当然英特尔作为处理器、半导体领域的翘楚,对行业的观察要比别人透彻得多。虽然旗下产品多来自于传统CPU,但是英特尔一样有核心产品,在机器学习领域有竞争力,那就是至强phi融核处理器与至强phi协处理器。

  发展顺序是这样的,英特尔现有的至强phi协处理器用来加速计算,后推出的之前phi融核处理器。融核处理器通过英特尔OPA来改变高性能计算的能耗效率与空间效率。在英特尔的官方新闻中,我们也看到了英特尔关于至强phi在加速机器学习的速度表现。当然了,英特尔也没停止收购的步伐,有很多人工智能领域的公司被英特尔收入囊中。

  如果我想从事该领域?

  作为最火的领域,人工智能、机器学习、深度神经网络这些词语见诸媒体很多,并且基本上企业开出的薪水+股票都非常诱人,可以说能人处于哄抢状态,价高者得。还记得AlphaGo的Deepmind吗?它们最近也有招聘启事。

  从招聘的信息看,如果想成为Deepmind的研究科学家,一般来说要有神经、计算机领域的博士(PhD)头衔以及靠谱的论文,他们才会考虑了,当然其它岗位可能要求会低一些。

  现在虽然火爆,但是实际上深度神经网络系统并不是太多,因此,高薪并从事前沿研究,并非那么容易,在看本文的读者群中,肯定有大学的在校生,多读书、努力学习,考上世界一流大学的计算机、神经等领域的专业,是从事机器学习、深度神经网络、人工智能这些领域的捷径,并且我们可以看到,专门为机器学习优化的硬件其实刚刚上路,未来很长的时间内,这个领域依旧会持续火热,因为世界上的深度神经网络系统其实也并不多。

  一个人的命运啊,当然要靠自我奋斗,但是也要考虑历史的进程。而历史刚刚打开人工智能的窗口,距离里面的殿堂还有很长的路要走,这个历史的机遇已经在面前了,是自我奋斗改变命运的时刻了,少年们。

  回归本文题目的问题,事实上今天的机器学习、人工智能,最多的还是至强+GPU的架构,但是定制的TPU、FPGA进行协处理,有事半功倍的效率。笔者个人认为,目前的形式恐怕已经不是效率最高的办法,在未来机器大脑或许真的比我们更聪明。

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/dianzi/2440212.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-08-03
下一篇 2022-08-03

发表评论

登录后才能评论

评论列表(0条)

保存