TPUGPU FPGA谁将能成为智能时代协处理器的领跑者

TPUGPU FPGA谁将能成为智能时代协处理器的领跑者,第1张

智能时代就要到来,芯片市场格局一变再变。两个典型例子:引领处理器市场 40 多年的英特尔 2015 年底收购完 Altera,今年 4 月就宣布计划裁员 1.2 万;另一方面,GPU 巨头英伟达今年 3 月推出加速人工智能和深度学习的芯片 Tesla P100,投入研发经费超过 20 亿美元,据《华尔街日报》报道,今年 5 月英伟达售出的 GPU 比去年同月增长 62%,公司当前市值 240 亿美元。

深度学习应用大量涌现使超级计算机的架构逐渐向深度学习应用优化,从传统 CPU 为主 GPU 为辅的英特尔处理器变为 GPU 为主 CPU 为辅的结构。不过,未来相当长一段时间内,计算系统仍将保持 CPU + 协处理器的混合架构。但是,在协处理市场,随着人工智能尤其是机器学习应用大量涌现,芯片厂商纷纷完善产品、推出新品,都想成为智能时代协处理器的领跑者——但问题是,谁会担当这个角色呢?

TPU:始于谷歌,终于谷歌

有舆论称,谷歌自己打造芯片,势必对芯片制造商产生巨大影响。确实,面向机器学习专用的处理器是芯片行业的发展趋势,而且未来其他大公司也很有可能组建芯片团队,设计自己专用的芯片。

谷歌TPU芯片

TPU 团队主要负责人、计算机体系结构领域大牛 Norm Jouppi 介绍,TPU 专为谷歌 TensorFlow 等机器学习应用打造,能够降低运算精度,在相同时间内处理更复杂、更强大的机器学习模型并将其更快投入使用。 Jouppi 表示,谷歌早在 2013 年就开始秘密研发 TPU,并且在一年前将其应用于谷歌的数据中心。TPU 从测试到量产只用了 22 天,其性能把人工智能技术往前推进了差不多 7 年,相当于摩尔定律 3 代的时间。

有媒体评论称 TPU 不仅为谷歌带来了巨大的人工智能优势,也对市面上已有的芯片产品构成了威胁。

这后半句话值得商榷。GPU 巨头、英伟达 CEO 黄仁勋日前告诉《华尔街日报》,两年前谷歌就意识到 GPU 更适合训练,而不善于做训练后的分析决策。由此可知,谷歌打造 TPU 的动机只是想要一款更适合做分析决策的芯片。这一点在谷歌的官方声明里也得到了印证:TPU 只在特定机器学习应用中作辅助使用,公司将继续使用其他厂商制造的 CPU 和 GPU。

谷歌云服务副总裁 Diane Greene 也表示,谷歌并没有对外销售 TPU 的打算——抛开 TPU 本来就是为了谷歌自己设计的这个事实以外,谷歌对外销售芯片的可能性很低,就像 Facebook 主张全球提供免费互联网,也并不是自己要做运营商。

因此,TPU 再好,也仅适用于谷歌,而且还是用于辅助 CPU 和 GPU。

TrueNorth 坐山观虎斗?

第二个要说的是 IBM TrueNorth。IBM 在 2014 年研发出脉冲神经网络芯片 TrueNorth,走的是“类脑计算”的路线。类脑计算的假设是,相似的结构可能会实现相似的功能,所以类脑计算研究者使用神经形态器件制造与人脑神经网络相似的电子神经网络,希望后者具有与人脑类似的功能,并进一步反过来理解人类智能。

带有IBM TrueNorth的DRAPA SyNAPSE

TrueNorth 一张邮票大小,有 54 亿个晶体管,构成的神经元阵列包含 100 万个数字神经元,这些神经元之间又通过 2.56 亿个电突触彼此通信。由于采用了异步架构,TrueNorth 的能耗很低,54 亿个晶体管仅用 70 毫瓦;而且,只有在特定神经元被开启并和其他神经元通信时才会产生能耗。TrueNorth 设计师 Filipp Akopyan 表示,TrueNorth 的目标是 Edge-of-the-Net 和大数据解决方案,所以必须要能够用超低功耗实时处理大量数据。

在此基础上,2016年 4 月 IBM 推出了用于深度学习的类脑超级计算平台 IBM TrueNorth,含 16 个 TrueNorth 芯片,处理能力相当于 1600 万个神经元和 40 亿个神经键,消耗的能量只需 2.5 瓦。

将低能耗芯片用于深度学习无疑是一大重举,美国 LLNL 数据科学副主任 Jim Brase 表示,类脑计算与未来高性能计算和模拟发展趋势一致。但是,新智元芯片群的几位专家讨论后一致认为,TrueNorth 虽然与人脑某些结构和机理较为接近,但智能算法的精度或效果有待进一步提高,离大规模商业应用还有一段距离。

因此,未来 10 年芯片市场群雄逐鹿,TrueNorth 大概不会有亮相的机会。

寒武纪:中国的智能芯片

寒武纪是国际首个深度学习专用处理器芯片。2012 年,中科院计算所和法国 Inria 等机构共同提出了国际上首个人工神经网络硬件的基准测试集 benchNN。这项工作提升了人工神经网络处理速度,有效加速了通用计算,大大推动了国际体系结构学术圈对神经网络的接纳度。此后,中科院计算所和法国 Inria 的研究人员共同推出了一系列不同结构的 DianNao 神经网络硬件加速结构。

寒武纪芯片板卡

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/dianzi/2603615.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-08-09
下一篇 2022-08-09

发表评论

登录后才能评论

评论列表(0条)

保存