听说GPU可以提高服务器计算速度,想给戴尔r710服务器配个GPU ,不知道支持不?麻烦高手给点指导性意见

听说GPU可以提高服务器计算速度,想给戴尔r710服务器配个GPU ,不知道支持不?麻烦高手给点指导性意见,第1张

只要服务器中有PCI-E X16的总线,就可以安装。
但GPU加速必须受到软件的支持,而且只对可以并行化的运算进行加速。另外,Nvidia显卡需要使用CUDA编程来实现加速功能,不是插上就能用的,AMD则需要Stream。一般都是用作高性能计算(HPC)的辅助计算加速卡,对于商务应用来说,没什么实际作用。不建议安装。

我个人觉得还是要重视产品的质量和公司的实力,当然性价比高的肯定是优先考虑。在选择GPU服务器的时候,我们公司还是比较看中产品安全和质量的,当时谨慎挑选了很久,最终还是选择了思腾合力。一方面是思腾合力的公司实力和口碑都挺好的,另一方它还是英伟达精英级别代理商,而且拥有完善的研发、生产、制造基地,这个是其他公司比不了的。所以建议你多对比看看,公司和产品都很重要的,不要贪小便宜。

在选择GPU服务器的时候,首先要考虑业务需求,根据具体需求来选择适合的GPU服务器,还需要考虑客户本身使用人群和IT运维能力,考虑配套软件和服务价值,还要考虑整体GPU集群系统的成熟程度以及工程效率等方面。当然我觉得价格也是要考虑到,性价比高那是最好的了。我朋友公司当时采购的是思腾合力家的服务器,看中的就是品牌和服务,它还是英伟达官方授权的经销商,服务方面3年质保,上门服务,免费方案,销售响应迅速,全年无休、售后服务保障长。对于我朋友来说,还是挺合适的选择。

推荐品牌: LINKZOL(联众集群);
可以参考其官网;
*** 作系统可以安装Ubuntu 1404 LTS,需要如下软件:
编译器:GNU编译器,包括C/C++/Fortran编译器;
Intel编译器,包括C/C++/Fortran编译器、MKL、等;
并行环境:OpenMPI、MPICH等MPI并行环境;
GPU开发环境:最新CUDA驱动、编译器、调试器、SDK及例子文件等;
cuDNN加速,CUDA FFT、CUDA BLAS等;
深度学习框架:Caffe, Torch, Theano, BIDMach、TensorFlow;其中,Caffe需要编译提供python接口和Matla(支持mex编译)接口;
DNN平台:基于B/S架构,便于用户实时且可视化地进行DNN的训练、测试
推荐配置一:
计算平台采用:LZ743GR-2G/Q
系统:Ubuntu 14043 x64
CPU:Intel Xeon十核E5-2630v4(22GHz,80 GT/s)
内存:原厂64GB内存 (16GB×4) DDR4 2133MHZ ECC-REG(带内存校错技术,最大支持2T)
系统硬盘:INTEL 25寸240G 企业级SSD固态硬盘(最大支持8块硬盘,类型:SATA,SSD)
系统硬盘:希捷35寸4T 7200RPM 企业级硬盘(最大支持8块硬盘,类型:SATA,SSD;)
GPU卡:2块NVIDIA TATAN-X GPU卡 (CUDA核心数3584个核心,12G DDR5 显存,最大2个GPU卡)
电源:1200W High efficiency (96%)金牌电源
推荐配置二:
计算平台采用:LZ-748GT
系统:Ubuntu 14043 x64
CPU:Intel Xeon十二核E5-2650v4(22GHz,96 GT/s)
内存:原厂256GB内存 (16GB×16) DDR4 2133MHZ ECC-REG(带内存校错技术,最大支持2T)
系统硬盘:2块INTEL 25寸480G 企业级SSD固态硬盘(最大支持8块硬盘,类型:SATA,SSD)
系统硬盘:3块希捷35寸4T 7200RPM 企业级硬盘(最大支持8块硬盘,类型:SATA,SSD;)
GPU卡:4块TESLA TITANX GPU计算卡或者4块tesla P4O GPU卡 (CUDA核心数3584个核心,12G DDR5 显存,最大4个GPU卡)
电源:2000W High efficiency (94%)冗余钛金电源
推荐配置三:
计算平台采用:LZ428GR-8G/Q
系统:Ubuntu 14043 x64
CPU:Intel Xeon十四核E5-2690v4(26GHz,96GT/s)
内存:原厂256GB内存 (16GB×16) DDR4 2133MHZ ECC-REG(带内存校错技术,最大支持2T)
系统硬盘:2块INTEL 25寸480G 企业级SSD固态硬盘(最大支持8块硬盘,类型:SATA,SSD)
系统硬盘:3块希捷25寸2T 7200RPM 企业级硬盘(最大支持8块硬盘,类型:SATA,SSD;)
GPU卡:8块TESLA P40 GPU计算卡或者8块NVIDIA TATAN-X GPU卡 (CUDA核心数3584个核心,12G DDR5 显存,最大8个GPU卡)
电源:1600W(2+2) High efficiency (96%)钛金电源;
可以咨询:1381O114665

主要是看运行什么软件和数据量,训练数值大小,这里要强调一下,数值大小和数据量是不一样的。

深度学习服务器的核心部件还是CPU、硬盘、内存、GPU,特别是很多深度学习依靠GPU的大规模数据处理能力,这就要强调CPU的计算能力和数量,同时不同的数据对GPU的显存要求也不一样。

当下大部分都在用RTX3090做深度学习,最新RTX4090已经上市,单精度计算能力是RTX3090的2倍,这两个GPU都是24G显存;像A100强调双精度计算能力,显存有40G和80G两个版本,而A6000单精度计算能和RTX3090差不多,显存是48G,可以参考选择。

当然,最重要的还是口袋里的银子,A6000市场价大概是RTX的2倍还要多,A100最近更是要上十万了,估计也快买不到了,价高缺货;RTX3090/4090的价位低,性价比高,这也是为什么大部分人都选择它们做深度学习了,这是市场的选择。

刀片服务器安装GPU加速卡的方法与安装显卡的方法和位置都是一致的。
1、显卡的接口为PCIE接口,是安装在刀片主板的PCIE插槽上的,GPU加速卡的接口为PCIE接口,也是安装在PCIE插槽上的。
2、显卡PCIE接口与GPU加速卡PCIE接口对比,可见完全相同:
3、安装GPU加速卡需要关闭服务器进行安装,安装的 *** 作方式与安装显卡完全相同,对准插槽将GPU加速卡卡入PCIE插槽,锁紧服务器机箱后部的固定装置,完成安装。

选择GPU服务器时首先要考虑业务需求来选择适合的GPU型号。在HPC高性能计算中还需要根据精度来选择,比如有的高性能计算需要双精度,这时如果使用P40或者P4就不合适,只能使用V100或者P100;同时也会对显存容量有要求,比如石油或石化勘探类的计算应用对显存要求比较高;还有些对总线标准有要求,因此选择GPU型号要先看业务需求。

GPU服务器人工智能领域的应用也比较多。在教学场景中,对GPU虚拟化的要求比较高。根据课堂人数,一个老师可能需要将GPU服务器虚拟出30甚至60个虚拟GPU,因此批量Training对GPU要求比较高,通常用V100做GPU的训练。模型训练完之后需要进行推理,因此推理一般会使用P4或者T4,少部分情况也会用V100。

综上所述,选择服务器时不仅需要考虑业务需求,还要考虑性能指标,比如精度、显存类型、显存容量以及功耗等,同时也会有一些服务器是需要水冷、降噪或者对温度、移动性等等方面有特殊的要求,就需要特殊定制的服务器。

欢迎了解更多:网页链接

GPU服务器,就是有专用显卡的服务器,一般多用于超级算力,图形计算,或者说IPFS挖矿等,一般来说,GPU服务器多为4U的服务器。根据GPU的数量不同,该服务器的功率也是不一样的。
一块GPU卡一般耗电350W,一般4U的服务器最大可以支持8块GPU卡,通常业内多称之为8卡GPU服务器,当然也有4卡,6卡的。如果装满8卡GPU,那么其耗电在2800瓦,差不多就是 13A电力。一般常规的机房机柜标准配电是13A起步 (也有按10A起步的)
如果是放在13A电力的机柜里,那么一台4U 8卡的GPU服务器就得占用一个机柜,所以这个时候,如果客户机器数量比较多的话,就租用高电机柜比较合算,不然一台占一个机柜,机柜空间就大大的浪费了。
一般来说,不计算用电的情况下,一个4U的机柜的机柜费是根据 一个机柜的总成本除8得出来的(因为一个42U的机柜 空间上可以放8台4U服务器)。比如说我们国门机房 1个机柜 42U ,13A电力一个月是4000元,除8等于500元。也就是说正常在国门机房,如果1个4U的机位,在用电不超过13除以8也就是1625A的情况下,只需要500元的机位费。 当然这个是理论值,一般来说4U的机器,耗电量正常的都要在25A左右,如果是GPU专业服务器,常见耗电在5A左右,也有一台耗电量在13,或25或32A等不同档次的。
所以说咱们在托管GPU服务器的时候,一定要确定机器的耗电量是多少,然后再看是整租个普通机柜,还是租用高电机柜 放多台GPU服务器。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zz/12613483.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-26
下一篇 2023-05-26

发表评论

登录后才能评论

评论列表(0条)

保存