(文章来源:电子信息产业网)
有学者指出,英伟达在芯片领域的强势表现源于其对AI技术需要高并行浮点计算的预判。英伟达创始人黄仁勋认为,大脑在想象物体时会浮现相应的图像,与GPU运行模式类似。相比串行运算的CPU,用大量小核心进行大规模并行计算的GPU能提升运算速度,更加适应深层神经网络对矩阵乘法运算和卷积运算的需求。
“不考虑RGB信息,图像就是一个二维阵列,GPU对每一个阵列、每一个单元采用相似的处理方法, 实现规模并行计算,而通用的人工智能算法也有着处理单元(神经元)多、处理方式相似的特点。在用AI升级计算能力方面,GPU是一个很好的方案。”赛迪智库软件产业所研究员蒲松涛告诉《中国电子报》记者。
据悉,英伟达发布的Volta架构Tesla V100 GPU在混合精度矩阵乘法和累加的峰值运算已达120 TFLOP/s,目前英伟达Drive PX芯片应用于自动驾驶,Jetson芯片应用于无人机和机器人,Tesla系列用于加速超算和云计算,从深度学习框架到产品终端皆有布局。
在今年的CVPR(IEEE国际计算机视觉与模式识别会议),英伟达将Volta架构的GPU免费赠送给100位AI研究者,其中包括15枚Tesla V100,可见英伟达对AI的进取心。据Jon Peddie Research数据,英伟达2017年在GPU市场占有率达72.5%,AI成为英伟达主导市场的抓手。
微软宣布英特尔StraTIx10 FPGA芯片成为其深度学习平台Project Brainwave的关键加速。英特尔可程式化解决方案事业群总经理Dan Mcnamara称,英特尔FGPA根据微软对AI算法最优化与AI实时处理的需求定制硬件加速,FGPA的可编程集成电路能广泛适应结构化与非结构化数据。英特尔FPGA将加速集成在处理器硬件层能降低延迟、提升效能,增强平台在深度学习、机器学习、网络、存储方面的表现。
支持定制、功耗更低、效率更高的FGPA能狙击GPU的主流地位吗?从架构来看,FGPA的算法直接构建在物理层,比依靠指令系统的CPU、GPU更有效率,可编程的开源属性也让FGPA更加灵活。
“FGPA性价比更低,功耗小,扩展性好,可编程可开发,非常适合深度学习在云端的算法训练。但FGPA的部署量还与GPU有相当的差距,尚处于各自开发的阶段,没有统一的开源框架,” 赛迪顾问电子信息行业分析师向阳在接受《中国电子报》专访时说。向阳认为FGPA是一种趋势,未来BAT或许会更多采用FGPA集成AI算法。
英特尔研发团队也注意到现阶段FGPA与GPU的差距。他们指出,深度学习对浮点运算和矩阵运算的需求让GPU脱颖而出,但StraTIx10 FPGA芯片有几千个硬浮点单元、灵活的内嵌RAM、高带宽内存,在效能上并没有被GPU甩开。而深度神经网络正在引入越来越多的不适合GPU处理的不规则并行数据,他们预测FGPA会成为下一代深度神经网络的加速硬件。
谈到AI芯片,就不得不提被视为Tesla V100最强对手的谷歌TPU 2.0。与英伟达不同,谷歌不打算出售TPU 2.0,而是将它集成到谷歌数据中心,预计开发者可在今年年底之前通过云平台训练、执行T神经网络训练。与竞争对手相比,谷歌对AI生态的主导意识更强,TPU 2.0需配合谷歌Tensorflow深度学习框架,使用Caffe、Torch的开发者则要基于TPU 2.0进行调整。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)