人工智能处理器如何降低功耗?

人工智能处理器如何降低功耗?,第1张

“对于边缘技术来说,关键在于如何优化所需性能,同时最大限度地降低功耗。”

鉴于疫情期间,行业活动已普遍转变为虚拟活动,年初至今我已经参加了6次线上半导体会议。讨论的热门主题之一是人工智能AI)和深度学习(DL)芯片,这是一个不断发展的领域,范围涵盖了广泛的技术和器件类型。一项共同主题是关注内存优化和解决功耗/内存瓶颈。

人工智能是一个炙手可热的市场。据ABI Research估计,2024年整个人工智能芯片市场将达到210亿美元。令人惊讶的是,基于ASIC的人工智能加速占据了市场的很大一部分,预计到2024年,其价值将增长三倍,达到90亿美元的总可用市场(TAM),年复合增长率(CAGR)为30%。

各家公司都想方设法,研发出低能耗的训练和推理处理解决方案。虽然机器学习只占数据中心总功耗的一部分,但这一部分功耗正在迅速扩大。2017年,数据中心消耗的电力约占美国总电力的3%,2020年这一数字翻了一倍,达到了6%。智能边缘器件的普及也在加速。根据市场研究公司IDC的数据,未来十年将有1,250亿个“物品”连接到互联网上,届时每年将创建、捕获、复制和消费近60泽字节的数据。

很明显,我们的行业面临着一项重大挑战:如何在边缘部署多个智能设备,在边缘以极低的功耗推断所有数据,并在云端管理、处理和训练指数级增长的数据,同时将功耗保持在控制水平内。

人工智能参考封装发展

格芯®(GLOBALFOUNDRIES®)计算业务部副总裁Hiren Majmudar表示:“在推理和训练中都存在功耗瓶颈”,而格芯技术产品很好地解决了这一点,无论是基于FinFET的12LP (12nm FinFET)平台和12LP+解决方案,还是基于全耗尽型SOI的平面22FDXTM (22nm FD-SOI)平台。

基于FinFET技术的人工智能处理器,无论是用于云端还是边缘,都具有功率和成本优势。12LP+解决方案能够以高于1 Ghz的速度运行人工智能内核,并采用全新的低电压SRAM和支持在0.55V下工作的标准单元库。格芯先进的FinFET解决方案12LP+于今年投产,与12LP基础平台相比,其双功函数FET的逻辑性能最高可提高20%,相当于功耗最高可降低40%。

他表示:“我们客户使用独特的架构,往往依赖一组有限的标准单元。我们一直致力于研究设计技术协同优化(DTCO),并开发了人工智能参考封装,可通过一套预封装元件来充分发挥潜能。借助合作DTCO模式,我们的客户可以快速将SoC目标推向市场。DTCO工作包括基于客户自身架构的设计分析服务,以针对性能、功率和面积(PPA)进行优化。”

Majmudar表示,最佳PPA因具体应用而不同。

他表示:“所有的细分市场都非常关注成本。对于云计算来说,指标是每瓦TOPS,以最低的功耗获得最佳性能。对于边缘技术来说,关键在于如何优化所需性能,同时最大限度地降低功耗。”

Majmudar表示,对于开发“即时开启或永远在线”人工智能应用的客户来说,22FDX的eMRAM产品具有很强的优势。他补充道:“eMRAM有很多应用,可帮助客户实现高密度和非易失性。另一项功能是模拟存储器内计算。”

人工智能工作负载范围很广,除了训练和推理外,还包括语音、视觉和成像。他表示:“我们是一家专业晶圆厂,不断推出创新的IP产品。我们持续投资IP、晶圆到晶圆互联、存储器和接口IP领域。我们拥有明确的路线图,并吸收客户的意见不断改进。”

创新型初创公司

我计划在未来的博客中,详细介绍格芯如何与该领域的初创公司开展合作,但本文将先介绍其中一家公司,以便让大家初步了解格芯客户在人工智能芯片方面的丰富创新成果。

全耗尽型绝缘体上硅平台经过专门设计,支持动态电压、频率微缩和自动时钟门控。由此实现了超低功耗的信号处理和神经网络算法,可用于电池供电的物联网设备。

Perceive是Xperi Corp.拥有多数股权的子公司,旨在为超低功耗消费器件中的传感器数据提供人工智能推理。Perceive的“Ergo”边缘推理处理器能够在设备上处理大型神经网络,其效率是目前支持推理的处理器的20至100倍。

该公司专注于通过集成神经网络处理技术实现安全摄像头、智能家电和移动设备,而无需将数据发送到云端进行推理处理。
责编AJX

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/dianzi/2448649.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-08-03
下一篇 2022-08-03

发表评论

登录后才能评论

评论列表(0条)

保存