FPGA如何在AI数据中心脱颖而出

FPGA如何在AI数据中心脱颖而出,第1张

人工智能涉及的领域非常广泛,工业、航天、商业都有应用,数据的积累和分析让这种技术有了更高的价值。机器开始懂得用户想要什么,可以预测未来的天气和球赛的比分,这种人工智能与场景的结合,要实现的就是改变生活方式和解放生产力。微软前执行副总裁陆奇曾指出,如果大数据被充分利用,全球企业将额外获得1.6万亿美元的数字红利。

海量数据的解读对计算性能是不小的考验,设备堆叠和软件优化无法解决根本问题,要从基础架构上做出改变。也就是说,未来的数据中心绝不是传统意义上的通用计算机,而是可以针对业务需求做出感知响应,同时兼顾效率与能耗,实现所谓的智慧计算。更重要的是,随着IPDC的发展,互联网企业业务和技术快速迭代,对数据中心提出了新的挑战,需要更好地支持AI机器学习等前沿技术。

为了充分挖掘计算潜力,很多厂商都在尝试用GPU处理并行计算,其由数以千计的更小、更高效的核心组成,这些核心专为同时处理多任务而设计,在Linpack测试中也可以获得更好的浮点运算性能。前不久,我们采访了联想集团中国区中央及行业技术支持和体验中心总监李鑫,他认为未来服务器结构会发生新的变化,计算与IO是完全分开的,像NVIDIA这样涉足GPU计算的厂商,持续攀升的股价足以说明这种技术的火热。不过,GPU在兼容性、能耗、成本等方面也存在一些缺陷,使得大家开始寻求其他方案,“老古董”FPGA再次被提及。

近两年,FPGA市场的大交易不断。通过收购Altera英特尔希望借助更高的集成度,将数据中心用半导体的性能提升两倍以上,要在同一硅片上整合微处理器和FPGA,设计层面的整合较为重要。而作为全球最大的FPGA厂商之一,Xilinx在收购Auviz Systems(提供基于FPGA中间件IP,减少应用功耗)之后,则会利用后者在数据中心和卷积神经网络领域的技术,提高FPGA在人工智能领域的地位。

那么,FPGA为何能在AI数据中心时代杀出重围呢?究其原因,无外乎兼容性、可定制、功耗、性价比。熟悉FPGA的人并不少,其全称为Field-Programmable Gate Arra,即现场可编程门阵列,以硬件描述语言(Verilog或VHDL)完成的电路设计,特点是可以排列组合出各种复杂的逻辑功能,即使在出厂成品后也能根据设计需要改变逻辑模块和连接。并行计算时,FPGA包含的LUTs、register、DSP等经由网络通过编程连接,实现特定功能,并且可以反复重配使用。无论是对比GPU还是ASIC ,FPGA的兼容性和灵活性都更好。

微软的研究人员认为,通过在必应网络搜索数据中心使用FPGA,服务器能够快速处理更高的搜索查询负载,所需设备数量有所削减,“在云环境中,可重新配置逻辑将成为数据中心的首选资源实现机制,并将随着时间推移而承载超越传统CPU的大部分数据中心计算任务。”

功耗方面,根据浪潮为国内某大型互联网公司定制的FPGA实测数据显示,一个FPGA加速卡的功耗约为20W-75W的功耗,对应的1个GPU单元为235W-300W。此外,一块中端GPU的每瓦单精度20Gflops/W,而FPGA为60Gflops/W-80Gflops/W。不过在实现同样功能时,FPGA较GPU和ASIC需要的电路面积更大,这也导致了其总功耗优势下降,尚需进一步优化。

应用方面,FPGA在通信、医疗、工业、军事等领域均有涉足,例如信号基站就需要FPGA进行数据处理,架构的广泛适应性也为FPGA应用于数据中心打下了基础。市场调查机构Gartner预测,从2014年到2023年,全球FPGA市场的年均增长率会达到7%。

或许有人会说,除了GPU异构,就不能为人工智能、机器学习专门定制芯片(ASIC)吗?的确,这种方案会带来更好的性能,但研发周期和设计成本难以控制,要等待最新的半导体工艺,商用风险较大。

当然,FPGA也绝非面面俱到。首先GPU在峰值性能远远把FPGA甩在身后,这也是NVIDIA主推GPU加速的原因之一,适用于很多深度学习场景,性能足够满足需求。其次,由于传统FPGA采用硬件语言编程,让大多数程序员犯了难,开发门槛较高。对此,不少人开始转向基于OpenCL的软件开发模式,优势是适配多种平台,语言更加易于理解,普及程度也逐渐提高。

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/dianzi/2544985.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-08-05
下一篇 2022-08-05

发表评论

登录后才能评论

评论列表(0条)

保存