在选择gpu
服务器的时候,首先要考虑业务
需求,按照业务需求来选择适合的GPU型号,而且也要考虑配套软件和服务价值。针对不同的使用群体,在服务器的选择方面
也是不同的,gpu服务器的标准自然也是不一样的。我个人觉得在选择gpu的时候,还是看自己的需求、对服务器的配置要求和预算,还有就是服务器的品牌,我觉得品牌还是比较重要的,虽然说价格可能会贵一点,但是质量和服务真的是不错。我们公司是在思腾合力购买的服务器,他们家有自主的服务器品牌也是英伟达的代 理商,在价格方面可以选择,让我们公司满意的还是他们家的服务,挺专业的而且非常及时,还挺不错的。做深度学习的话,我还是可以有立场说些的。因为我们实验室当时就遇到了这些问题,选择深度学习GPU显卡时建议选择专门做液冷的A100或者RTX3090、RTXA6000、RTXA40等卡,蓝海大脑的液冷GPU服务器具有高性能,高密度⌄扩展性强等特点。液冷GPU服务器产品支持1~20块 GPU卡,还可以选择,毕竟能可以选择也是很好的,芯片主要采用龙芯、飞腾、申威、海光、英伟达、Intel、AMD。完全定制啊,敲开心。适用于深度学习训练及推理、生命科学、医药研发、虚拟仿真等场景,覆盖服务器、静音工作站、数据中心等多种产品形态,量身定制,满足客户全场景需求。技术人员给的建议都非常受用。选择GPU服务器时首先要考虑业务需求来选择适合的GPU型号。在HPC高性能计算中还需要根据精度来选择,比如有的高性能计算需要双精度,这时如果使用P40或者P4就不合适,只能使用V100或者P100;同时也会对显存容量有要求,比如石油或石化勘探类的计算应用对显存要求比较高;还有些对总线标准有要求,因此,十次方平台建议您选择GPU型号要先看业务需求。
当GPU型号选定后,再考虑用什么样GPU的服务器。这时我们需要考虑以下几种情况:
第一、 在边缘服务器上需要根据量来选择T4或者P4等相应的服务器,同时也要考虑服务器的使用场景,比如火车站卡口、机场卡口或者公安卡口等;在中心端做Inference时可能需要V100的服务器,需要考虑吞吐量以及使用场景、数量等。
第二、 需要考虑客户本身使用人群和IT运维能力,对于BAT这类大公司来说,他们自己的运营能力比较强,这时会选择通用的PCI-e服务器;而对于一些IT运维能力不那么强的客户,他们更关注数字以及数据标注等,我们称这类人为数据科学家,选择GPU服务器的标准也会有所不同。
第三、 需要考虑配套软件和服务的价值。
第四、要考虑整体GPU集群系统的成熟程度以及工程效率,比如像DGX这种GPU一体化的超级计算机,它有非常成熟的 *** 作系统驱动Docker到其他部分都是固定且优化过的,这时效率就比较高。建议用高配E5-2670 16线程32G内存 240G固态硬盘 赠送100G真实防御,G口接入20M独享带宽真实三线BGP,一共才六百元每月,稳定好用,24小时人工售后,随时开机测试,+8067-57588
评论列表(0条)