连杰苏(来源:ABI Research)
AI加速芯片的机会被大肆宣传,但市场有多大,今天哪些公司真正在销售芯片?
ABI Research 的两份新报告详细介绍了当今 AI 芯片组市场的发展状况。EETImes 采访了报告的作者,首席分析师苏连杰,以了解哪些公司和技术正在进入这个潜在的利润丰厚的市场。
云中的人工智能
第一份报告“云 AI 芯片组:市场格局和供应商定位”强调了云 AI 推理和培训服务如何快速增长。由此产生的人工智能芯片组市场预计将从 2019 年的 42 亿美元增长到 2024 年的 100 亿美元。该领域的当前领导者英伟达和英特尔正受到寒武纪、Graphcore、Habana Labs 和高通等公司的挑战。
Su 表示,英伟达在这个市场上仍然是一个明显的领导者,这主要归功于其完善的开发者生态系统和先发优势。
“此外,随着人工智能模型、库和工具包的不断变化和更新,鉴于其作为通用人工智能芯片组的能力,英伟达是一个很好的后备选择,”苏说。“诚然,随着市场的成熟,这些优势会慢慢减弱,但至少在可预见的未来,英伟达仍将处于强势地位。”
今天的人工智能芯片组云市场分为三个部分。公共云由云服务提供商托管:AWS、微软、谷歌、阿里巴巴、百度和腾讯等。然后是企业数据中心,它们实际上是私有云,以及 ABI 所谓的“混合云”,即结合公共云和私有云(VMware、Rackspace、NetApp、HPE、戴尔)的产品。
该报告还确定了一个额外的新兴领域——电信云,它指的是电信公司为其核心网络、IT 和边缘计算工作负载部署的云基础设施。
苏说,这个新的细分市场对人工智能芯片组制造商来说是一个巨大的机会。
“我们已经看到像华为这样的网络基础设施供应商,以及在较小程度上诺基亚推出针对电信网络功能优化的 ASIC,”Su 说。“这是一个巨大的市场,但英伟达最近一直在努力进入这个市场。”
虽然 Su 没有看到任何其他公司在短期内取代 Nvidia 在云端 AI 训练方面的主导地位,但推理更像是一种自由竞争,目前还不是由单一玩家主导。这部分归因于推理工作量的性质,这在垂直领域之间有所不同。他说,从 2020 年起,ASIC 预计将在该领域实现强劲增长。
当前将人工智能推理转移到边缘设备的趋势将意味着智能手机、自动驾驶汽车和机器人等设备对云的依赖减少。但这并不意味着推理工作量(一些云服务提供商认为大于训练工作量)将会减少,Su 说。
“一些人工智能永远不会走向边缘,例如聊天机器人和对话式人工智能、欺诈监控和网络安全系统,”他说。“这些系统将从基于规则的人工智能系统演变为基于深度学习的人工智能系统,这实际上增加了推理工作量。[增加] 将足以取代那些移动到边缘的推理工作负载。”
然后是谷歌。谷歌的 TPU(张量处理单元)可以同时处理云中的训练和推理,被视为 CPU 和 GPU 技术的有力挑战者(分别由英特尔和英伟达领导)。正如报告所指出的,谷歌在 TPU 方面的成功为其他云服务提供商 (CSP) 开发自己的 AI 加速 ASIC 提供了蓝图。华为、AWS和百度已经这样做了。
如果云服务提供商都在开发他们自己的芯片组,这是否会为该领域的任何其他芯片组供应商留下市场?
“随着 CSP 开始在自己的芯片组上工作,这条道路对于新来者来说非常具有挑战性,你当然是对的,”Su 说。“我们甚至预测,到 2024 年,15% 到 18% 的市场将属于 CSP。机会更多地在于私有数据中心领域。银行机构、医疗机构、研发实验室和学术界仍将需要运行 AI,他们将考虑针对 AI 工作负载进行更优化的芯片组,这为 Cerebras、Graphcore、Habana Labs 和 Wave CompuTIng 等新来者提供了一些优势。”
其他将从这些趋势中受益的参与者是 IP 内核许可供应商,如 ARM、Cadence 和芯原,他们将负责比以前更多的芯片组开发企业的芯片组设计,Su 说。
边缘的人工智能
ABI 的第二份报告《Edge AI Chipsets: Technology Outlook and Use Cases》显示,2018 年边缘 AI 推理芯片组市场规模为 19 亿美元。该报告还确定了一个边缘训练市场,令人惊讶的是,该市场位于同年140万美元。
今天哪些应用程序正在边缘进行培训?Su 解释说,这个数字包括网关(历史学家或设备集线器)和本地服务器(在私有云中,但地理位置位于生成 AI 数据的位置)。专为在本地服务器上进行训练任务而设计的芯片组包括 Nvidia 的 DGX、华为的网关和采用 Ascend 910 芯片组的服务器,以及 Cerebras System、Graphcore 和 Habana Labs 等针对本地数据中心的系统级产品。
“这个(边缘培训)市场仍然很小,因为云仍然是人工智能培训的首选地点,”苏说。
与此同时,边缘人工智能推理在 2019 年至 2024 年间估计的边缘人工智能 31% 的复合年增长率占大部分。对于边缘推理,Su 描述了三个主要市场(智能手机/可穿戴设备、汽车、智能家居/白色家电)以及三个利基市场.
第一个利基市场,机器人技术,通常需要异构计算架构,因为机器人依赖于多种类型的神经网络,例如用于导航的 SLAM(同时定位和映射)、用于人机界面的对话式 AI 和用于对象检测的机器视觉等。它们在不同程度上使用 CPU、GPU 和 ASIC。他说,英伟达、英特尔和高通在这一领域竞争激烈。
“第二个利基是智能工业应用,包括制造、智能建筑以及石油和天然气行业,”他说。“我们看到 FPGA 供应商在这个领域表现出色,不仅是由于传统设备,还因为 FPGA 的架构,[提供了]灵活性和适应性。”
最后,还有“非常边缘”,即将超低功耗 AI 芯片组嵌入广域网上的传感器和其他小型终端节点的趋势。鉴于对超低功耗的关注,这一领域由 FPGA 公司、RISC-V 设计和 ASIC 供应商占据。
到目前为止,谁实际上在为边缘的 AI 推理进行设计?
“令人惊讶或不足为奇的是,由于智能手机的出货量很大,智能手机 AI ASIC 供应商实际上在边缘 AI 芯片组市场上处于领先地位,”Su 说。“这指的是苹果、海思、高通、三星,在较小程度上是指联发科。但是,如果我们严格地谈论初创公司,我认为 Hailo、Horizon RoboTIcs 和 Rockchip 似乎在终端设备制造商中获得了一些动力。”
Su 还表示,软件对于边缘 AI 芯片组的商业实施和部署至关重要,将 Nvidia 持续升级其编译器工具和建立开发者社区的努力与英特尔和赛灵思采取的方法进行了比较,后者是与初创公司合作或收购拥有基于软件的加速解决方案。
“芯片组公司应考虑向开发人员社区提供工具包和库,以及开发人员教育计划、竞赛、论坛和会议,因为这些将吸引开发人员与芯片组公司合作并开发相关应用程序。所有这些都是新创业公司不容易实现的,”他说。
该报告得出的结论是,除了为开发者社区提供合适的软件和支持外,该领域的成功公司还将提供良好的发展路线图,并得到技术价值链的其余部分的支持。他们还需要在各种用例中扩大其芯片的规模,同时保持具有竞争力的价格点。
审核编辑 黄昊宇
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)