英伟达发布最新GPUDirect储存技术

英伟达发布最新GPUDirect储存技术,第1张

(文章来源:十次方)

由于人工智能以及高效能运算的资料集规模不断的增加,应用程序加载资料花费的时间越来越长,进而影响了应用程序的效能,而且特别是端到端架构,会因为缓慢的I/O使得运算速度日益提升的GPU无用武之地。Nvidia提到,将资料从储存器加载到GPU,过去都是由CPU负责,而这将会成为硬件效能的瓶颈。

资料从NVMe磁盘传输到GPU内存的标准路径,是使用系统内存中的反d缓冲区(Bounce Buffer),而GPUDirect储存技术避免使用反d缓冲区,以减少额外的资料副本,并使用直接内存存取引擎(Direct Memory Access,DMA)将资料直接放到GPU内存中,为远端或是本地储存,诸如NVMe或NVMe over Fabric,和GPU内存之间,建立一个直接传输资料的路径,而这能有效减轻CPU I/O的瓶颈,提升I/O频宽和传输资料的量。

Nvidia提到,GPUDirect储存技术的主要功能,就是透过这个新的档案系统,以直接内存存取的方式,将资料传输至GPU内存上。无论资源原本存放在什么位置,都能使用GPUDirect储存技术,这些储存可能位在机箱内、机架上甚至通过网络连接都可以。

Nvidia在GPU资料科学平台RAPIDS中的GPU资料影格(GPU DataFrame,GDF)函式库cuDF上进行实验,发现使用GPUDirect存储技术,比起原始cuDF CSV读取程序,将资料传输到GPU内存的吞吐速度快了8.8倍。cuDF是让使用者在GPU上,用来加载、过滤、排序和探索资料集的函式库。

Nvidia表示,应用这项新技术,远端储存、本机端储存以及CPU内存到GPU内存的频宽,可以在互相组合后加乘,以人工智能超级计算机DGX-2为例,从CPU系统内存到GPU内存的频宽限制为50 GB/s,但综合从系统内存、本机端硬盘以及NIC(Network Interface Card)的资料,最高频宽甚至可以达215 GB/s。

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/dianzi/2554337.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-08-06
下一篇 2022-08-06

发表评论

登录后才能评论

评论列表(0条)

保存