英特尔推出全新Nervana NNP模拟芯片

英特尔推出全新Nervana NNP模拟芯片,第1张

目前全世界的几乎所有科技技术公司都或多或少的有人工智能这方面的项目,特别是英特尔在人工智能方面做了很多承诺,并且正在对该类别进行投资。在Hot Chips会议上展示了这一点,英特尔推出了包含Nervana神经网络(NNP)系列的前两个处理器,包括一个用于培训(NNP-T)和一个用于推理(NNP-I)。

被称为“Spring Crest”的英特尔从头开始构建其Nervana NNP-T,以大规模培训深度学习模型。英特尔表示:“它旨在尽可能快地确定培训网络的优先级,并在给定的功率预算范围内完成。”该芯片在设计时还考虑了灵活性,在计算,通信和内存之间提供平衡,并针对批量工作负载进行了优化。

乍看一下,NNP-T是一块令人印象深刻的处理器。它包含270亿个晶体管和24个处理器内核,工作频率高达1.1GHz。它还具有32GB的HBM2内存。按比例构建意味着它可以将工作负载分散到多个加速卡和多个系统。随着客户需求的增长,深度学习硬件也会增长。

该芯片基于TSMC的 16nm CLN16FF +处理器。这似乎是一个不寻常的决定,因为英特尔通常制造自己的芯片,但在这种情况下,当英特尔收购Nervana时,生产已经开始。这里还有一个Tensor处理集群,带有24个Tensor处理器,以及60MB的片上分布式存储器。根据英特尔的说法,这最终达到了119 TOPS(每秒理论运算)的性能。

简而言之,NNP-T是一个定制的移动处理器,用于训练AI系统,而不是将这类任务卸载到Xeon处理器。代号为“Spring Hill”的英特尔Nervana NNP-I部分是推理移动处理器。这个基于英特尔的10纳米制造工艺,具有Ice Lake核心,可大规模加速深度学习部署。

英特尔解释说:“英特尔Nervana NNP-I提供高度可编程性,同时不影响性能或功率效率。随着AI在每个工作负载中普及,拥有易于编程的专用推理加速,具有短延迟,具有快速代码移植和支持对于所有主要的深度学习框架,公司可以利用其数据的全部潜力作为可 *** 作的见解。“

英特尔声称主要数据中心推理工作负载的性能和功效最佳,达到4.8 TOPs / W. TDP范围从10W到50W。这一切归结为利用认知和人工智能工作负载驱动的巨大市场机会。英特尔在2017年曾表示,这两个领域的合并将在2020年达到460亿美元.Nervana NPP平台是英特尔积极进军这些领域,包括医疗保健,社交媒体,汽车和天气等领域。

英特尔面临着人工智能的激烈竞争,目前亚马逊的 AWS InferenTIal处理器,谷歌的 Tensor处理器和NVIDIA的深度学习加速(NVDLA)。都是很强的竞争对手,英特尔想要顺利的发展起来恐怕没有想象中的这么简单。百度,腾讯,阿里巴巴,搜狗都是在国内发展非常的企业,人工智能必然是未来市场最大的蛋糕之一,希望这么国家企业越发强大。

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/dianzi/2578167.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-08-07
下一篇 2022-08-07

发表评论

登录后才能评论

评论列表(0条)

保存