服务器是计算机的一种,它比普通计算机运行更快、负载更高、价格更贵。服务器在网络中为其它客户机(如PC机、智能手机、ATM等终端甚至是火车系统等大型设备)提供计算或者应用服务。服务器具有高速的CPU运算能力、长时间的可靠运行、强大的I/O外部数据吞吐能力以及更好的扩展性。
深圳市亿万克数据设备科技有限公司是研祥高科技控股集团旗下的全资子公司。研祥集团作为中国企业500强,持续运营30年。研祥集团全球49个分支机构,三个国家级创新平台,一直致力于技术创新引领行业发展。拥有1100多项授权专利,1300项非专利核心技术。其实,GPU虚拟化,主要是看你应用。因为,我们公司很多同事都是使用好几万的图形工作站,每台工作站都非常贵,上面的显卡都是专业的制图显卡,所以我曾经考虑过虚拟化,就是几个人共享一台工作站,可是,他们在工作的时候,显卡的负荷非常高。而虚拟化,就是几个用户共享一个资源,可是现在这一个资源都无法满足一个用户的需求,还怎么共享?
。所以,GPU虚拟化,我直接就没有尝试。所以,我感觉到GPU虚拟化,对于3D负荷很大的环境,是不适用的。蓝海大脑时空数据一体机研究人员表示:现有的GPU虚拟化技术是通过显存独享和算力共享的方式来实现,如果是希望高性能计算液冷GPU服务器显存核算率为共享资源分配单位,可能需要再从架构方面能支持才可以,现有的架构可能暂时还不能支持这种方式。
选择GPU服务器时首先要考虑业务需求来选择适合的GPU型号。在HPC高性能计算中还需要根据精度来选择,比如有的高性能计算需要双精度,这时如果使用P40或者P4就不合适,只能使用V100或者P100;同时也会对显存容量有要求,比如石油或石化勘探类的计算应用对显存要求比较高;还有些对总线标准有要求,因此选择GPU型号要先看业务需求。
GPU服务器人工智能领域的应用也比较多。在教学场景中,对GPU虚拟化的要求比较高。根据课堂人数,一个老师可能需要将GPU服务器虚拟出30甚至60个虚拟GPU,因此批量Training对GPU要求比较高,通常用V100做GPU的训练。模型训练完之后需要进行推理,因此推理一般会使用P4或者T4,少部分情况也会用V100。
综上所述,选择服务器时不仅需要考虑业务需求,还要考虑性能指标,比如精度、显存类型、显存容量以及功耗等,同时也会有一些服务器是需要水冷、降噪或者对温度、移动性等等方面有特殊的要求,就需要特殊定制的服务器。
欢迎了解更多:网页链接
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)