英伟达已经是一家人工智能芯片公司了?

英伟达已经是一家人工智能芯片公司了?,第1张

  日前,图形芯片厂商英伟达发布了季度营收创6年最大增幅的财报,并拉动其股价盘后飙升14%而引发业内的关注。加之此前,其CEO黄仁勋宣称英伟达已经是一家AI人工智能)芯片公司,颇有赶AI风口的意味。业内纷纷看好其在芯片,尤其是AI芯片的市场表现。但事实真的如此吗?

  我们先看看这个季度英伟达的财报表现。总营收20亿美元,同比增长53.6%。其中图形芯片部门的营收在其总营收中占比85%,同比增长52.9%,为17亿美元;数据中心业务同比增长两倍,为2.4亿美元;汽车业务同比增长60.8%,为1.27亿美元。

  

  从营收的构成上不难看出,支撑英伟达的核心业务依旧是传统PC市场的图形芯片(独立显卡),而涉及到AI相关领域或者是与AI密切相关(例如数据中心)业务的营收仅占到其总营收的1/10左右。所以仅从营收看,英伟达远称不上是一家AI芯片公司。而事实是,目前AI是产业竞相追逐的热点,曾经包括现在依然是传统PC产业独立显卡(显示芯片)的英伟达摇身一变成为AI公司自然会吸引不少的眼球。从这个意义看,我们不排除英伟达有借助AI风口炒作和夸大自己芯片作用的成分。

  当然,我们在此并非否认AI芯片(支持AI应用和功能)将是未来芯片产业的发展趋势。尤其是谷歌人工智能软件AlphaGo利用深度学习技术击败全球顶尖围棋选手李世石,预示着人工智能将是科技行业和大佬们竞争的下一个热点。而大数据物联网的发展促使IBM、谷歌、Facebook、微软等在内的科技巨头和许多大型的提供云服务的云计算公司竞相开发人工智能技术,以期利用未来物联网设备收集的海量数据(分析)为市场和用户提供更好的服务。

  需要说明的是,尽管各家厂商叫法不同,例如IBM称之为认知计算,Facebook和谷歌称之为机器学习或人工智能,但作为支撑这些技术和应用的数据中心基础硬件之一的芯片依然扮演者重要的角色。

  基于此种趋势,据相关统计,目前运行在包括IBM、谷歌、Facebook、亚马逊、微软等大佬们和云计算公司的数据中心(服务器)至少有10%左右的工作负载与AI应用有关(或自己开发相关的AI应用或支持和运行客户的AI开发及应用等),且随着市场和用户对于AI的需求,这种趋势未来还会扩大。

  而这种趋势对于数据中心的基础芯片计算能力和功耗提出了新的挑战,英伟达此前一直专攻的GPU(图形芯片)具备有天然的优势。例如AI所需的大规模并行运算能力;同等面积下,GPU上拥有更多的运算单元(整数、浮点的乘加单元,特殊运算单元等);GPU拥有更大带宽的 Memory,因此在大吞吐量的应用中也会有很好的性能;GPU对能源的需求远远低于CPU等。

  尽管如此,这并不代表上述大佬们的数据中心(服务器)对CPU没有需求。相反,CPU依然是计算任务不可或缺的一部分,在深度学习算法处理任务中还需要高性能的CPU来执行指令并且和GPU进行数据传输,同时发挥CPU的通用性和GPU的复杂任务处理能力,才能达到最好的效果,这也是为何目前大多数企业采用的依然是“CPU+GPU”的组合,或者称为异构计算。

  在这种异构模式下,应用程序的串行部分在CPU上运行,而GPU作为协处理器,主要负责需要大量计算的部分。从这个角度看,缺乏CPU应该是英伟达在现在和未来自诩为AI公司始终存在的短板。

  既然提到CPU,自然就会联想到此领域的老大英特尔,它既是英伟达成为AI芯片公司在CPU上无法跨域的屏障,即便是在其擅长的能够满足上述大佬AI需求的GPU上也是最大的挑战者。

  这种挑战首先体现在英特尔对于CPU计算能力的创新挖潜上。例如其日前发布的用于数据中心服务器的Xeon Phi芯片。据英特尔的相关报告显示,Xeon Phi处理器的训练速度比英伟达的GPU快了2.3倍、Xeon Phi芯片在多个节点的扩展路为38%,且最多可达128个节点,这是目前市面上的GPU无法办到的。同时,由128Xeon Phi处理器组成的系统要比单个Xeon Phi处理器快50倍,意旨Xeon Phi处理器的扩展性优势明显,而这对于满足AI的应用至关重要。

  不过,针对英特尔的说法,英伟达提出了强烈的反驳,并指出英特尔使用的是18个月前的数据,比较的是四个Maxwell GPU和四个Xeon Phi处理器。如果使用更新的Caffe AlexNet数据,就会发现四个Maxwell GPU比四个Xeon Phi处理器的速度快30%。我们这里姑且不论谁的说法更接近客观,但从双方对于报告的口水战看,至少说明天然不占优势的CPU还是大有潜力可挖,至少从CPU本身,英特尔就可以缩小与英伟达的差距,或者说给英伟达带来压力。

  另外,从单纯满足AI应用本身的计算能力和实现方法上看,GPU是否是最好或者说是惟一在业内依然存在争议。有研究人员测试,相比GPU,FPGA的架构更灵活,单位能耗下性能更强。深度学习算法在FPGA上能够更快、更有效地运行,而且功耗也能做到更低。

  这似乎很好地解释了为何英特尔此前以167亿美元收购FPGA制造商Altera的原因。而提及并购,还有一桩被业内认为英特尔可以借此提升自身在AI芯片竞争力,甚至有可能超越英伟达的就是对于专攻AI芯片的Nervana Systems公司的并购。据称,Nervana Systems研究的深度学习芯片具有性价比高于GPU,处理速度是 GPU 的10倍等特点。

  为了说明Nervana Systems公司的实力或者说对于英伟达的威胁,我们不妨介绍一段Nervana Systems被并购的插曲。据称,英特尔在接触Nervana谈论出售事宜时,Nervana认为英伟达是合理的选择之一,因为Nervana的深度学习软件Neon也可以运行在英伟达芯片上,可以帮助英伟达补齐短板。然而,英伟达对Nervana并不感冒,认为自己基于GPU的深度学习技术要好于Nervana,但当Nervana与英特尔达成交易之后,英伟达似乎改变了想法,并试图重启收购谈判,无奈的是机会已经错过。

  对此,有分析认为,让英特尔得到Nervana是英伟达最大的失误,因为通过这次收购,英特尔将得到一个用于深度学习的具体产品和IP,它们可被单独使用外,也能与英特尔未来的技术融合,生产出更具竞争力、创造性的芯片产品。

  而提到整合,则是英特尔最为擅长的,针对并购来的Nervana Systems,其可以把相关产品整合到芯片或者多芯片封装中。例如把 Nervana Engine IP 加到一个至强CPU 中,可以提供一个低成本的方法来实现AI所需要的性能的加速,将 Nervana IP 产品化,进而提升自己CPU的计算能力,满足AI开发和应用对于数据中心芯片的更高需求。

  鉴于AI芯片的应用尚在起步阶段(目前仅占数据中心1/10左右的负载),及对手英特尔在此领域中有的放矢的并购和自身在CPU的挖潜和整合能力,英伟达以AI之名换来的股价暴涨背后并非高枕无忧和一片坦途。

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/dianzi/2710293.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-08-17
下一篇 2022-08-17

发表评论

登录后才能评论

评论列表(0条)

保存