NVIDIA与VMware合作 将GPU加速带进虚拟化应用 提升云端协作效率

NVIDIA与VMware合作 将GPU加速带进虚拟化应用 提升云端协作效率,第1张

NVIDIA宣布加入支援vSphere、vCenter或vMotion,将可透过NVIDIAGPUCloud串接使用者从自有伺服器到VMwareCloudonAWS在内GPU加速需求,并且让NVIDIA的GPU虚拟化技术应用到更广泛领域,除了应用在科学研究、数据分析或人工智慧领域,更可针对布署在云端的现代化应用服务运作进行加速。

在此次VMWorld2019开始前,NVIDIA宣布针对人工智慧、学习训练与资料分析等需求,打造名为vComputeServer的应用服务,并且将NVIDIAGPUCloud、NGCContainers,甚至可将GPU加速平台RAPIDS在内资源带进VMware与AWS合作的云端服务-VMwareCloudonAWS,让更多科学研究、数据分析、人工智慧技术应用能借由虚拟化GPU进行加速。

相比过往借由云端协同运算,多半会因为云端服务采用的CPU运算阵列效能限制,使得运算效能不如预期,甚至无法对应资料量越来越庞大的运算需求。因此,NVIDIA在此次VMWrold2019与WMware的合作,并将GPU虚拟化应用带进VMware所提供服务,其中包含在VMware提供的vSphere整合名为vComputeServer的应用服务,同时也串接NVIDIAGPUCloud运算资源。

在此项合作里,将可让原本运用vSphere虚拟化平台的运算模式串接GPU运算资源,让vSphere平台产生的虚拟化机器可额外配置一张或多张虚拟化GPU,同时借由GPU加速整体运算效率,使得人工智慧学习、研究分析效率可大幅提升。除此之外,借由此项合作,使用者将能以更具d性方式调用GPU加速运算资源,而不一定必须建置自有GPU加速资源。

相比部分企业会在自有数据伺服器整合GPU加速资源,借此让整体数据运算效率提升,但难免必须承担建置与维护成本,同时仍可能面临运算规模成长时,必须有更大运算效能支撑的情况。因此,NVIDIA从2017年提出NVIDIAGPUCloud服务,并且标榜能串接GoogleCloud、AWS、阿里云、DGX、OracleCloud等云端平台,透过GPU虚拟化方式协助推动更大运算规模,同时缩减运算所需时间。

而在今年的GTC2019期间,NVIDIA更提出全新CUDA-XAI加速演算平台,透过Turing显示架构、TensorRT运算框架,并且可相容TuringTensorCores设计,进而推动各类人工智慧运算模型,NVIDIA强调约可带来50倍以上的加速运算效果,并且带来更大的人工智慧运算应用成长推力。

此次宣布加入支援vSphere、vCenter或vMotion,将可透过NVIDIAGPUCloud串接使用者从自有伺服器到VMwareCloudonAWS在内GPU加速需求,并且让NVIDIA的GPU虚拟化技术应用到更广泛领域,除了应用在科学研究、数据分析或人工智慧领域,更可针对布署在云端的现代化应用服务运作进行加速。

就NVIDIA说明,过去已经在GPU虚拟化技术投入深度发展,例如早期借由GRID技术建立的虚拟化PC,以及后来推动的虚拟化工作站,让GPU虚拟化能应用在更进阶的专业绘图应用,甚至支援专业数据分析、机器学习、人工智慧、深度学习,或是超算领域等应用,另外也能对应各类伺服器运算加速,并且确保运算资源能即时无缝串接、整合。

相比单纯以CPU阵列加速模式,借由GPU加速约可提升50倍以上的深度学习效率,同时也能确保资料校正,或是降低资料比对错误机率,另外借由GPU虚拟化也能减少企业必须自行建置硬体设备成本,而NVIDIA更提供可依照运算需求选择使用NVIDIAT4、V100,或是采用QuadroRTX8000、6000在内Turing显示架构GPU,甚至也能选择以Pascal显示架构打造的P40、P100与P60作为GPU虚拟化应用。

高性能NVIDIA处理器与NVDIA GPU的区别:

没区别 ,叫法不一样而已;

性能关键看型号,那说白了只是个商标;

NV没有处理器,说的应该是它的流处理器;

这个和GPU是配合的,就是每块NV的显卡都有流处理器。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zz/13434679.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-08-05
下一篇 2023-08-05

发表评论

登录后才能评论

评论列表(0条)

保存