但是在实际的应用中,不仅仅要考虑性能,还需要顾及AI服务器的可编程性和灵活性,而在这方面,从CPU到ASIC则是依次递减,ASIC是将算法固化在芯片上,算法是比较固定的,所以它的性能最好,但是编程性和灵活性就明显受限。
参考链接:>在硬件层面,浪潮AI服务器通过对CPU、GPU硬件性能的精细校准和全面优化,使CPU性能、GPU性能、CPU与GPU之间的数据通路均处于对AI推理最优状态;在软件层面,结合GPU硬件拓扑对多GPU的轮询调度优化使单卡至多卡性能达到了近似线性扩展;在深度学习算法层面,结合GPU Tensor Core 单元的计算特征,通过自研通道压缩算法成功实现了模型的极致性能优化。具体可以在百度找他们的官网了解。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)