1 CPU 金牌6326 16核心32线程 基频29GHZ 加速频率35GHZ TDP: 185W 2
2 内存 512G(32GB32) DDR4 3200MHZ 1
4 准系统 超微420GP-TNR 4U机架式准系统, 带2200W冗余2+2电源;平台最大支持lO个GPU
32个DIMM插槽;母板超级X12DPG-OA6处理器中央处理器双插槽 P+ (LGA-4189)第三代英特尔 至强 可扩展处理器支持CPU TDP 270W核心高达40C/80T;高达 60MB 的缓存图形处理器支持的GPUHGX A100 8-GPU 40GB/80GB SXM4 多 GPU 1
5 SSD 三星PM9A1 1TB M2接口 NVMe协议 四通道 PCIe40 固态硬盘 1
6 SATA 希捷(Seagate)银河系列V6 6TB ST6000NM021A 7200RPM 256MB SATA3企业级硬盘 1
7 GPU卡 英伟达RTX 4090公版 4可以深度学习的
深度学习训练用到的硬件有两种:一种是专业AI硬件公司出的AI芯片,一种就是我们平时熟知的GPU显卡了,前者不太适合入门学习,而后者无论从入门难度还是性价比上讲,对于新手来说都是优先的选择。
而GPU显卡主流厂商大概两家,一个Nvidia,一个AMD,前者出的卡我们一般称之为N卡,后者称之为A卡。目前不管是普通消费市场(比如玩游戏)还是做机器推理的,N卡都占主流,生态也更好一些,因此,如果没有特殊原因,建议新手优先选择N卡入手。
Nvidia显卡主要分3大类:1)Geforce系列,这个系列是销量最多、大众最为熟悉的显卡,一般用来打游戏。但是它在深度学习上的表现也非常不错,很多人用来做推理、训练,单张卡的性能跟深度学习专业卡Tesla系列比起来其实差不太多,但是性价比却高很多。2)Quadro系列,Quadro系列显卡一般用于特定行业,比如设计、建筑等,图像处理专业显卡,比如CAD、Maya等软件,一般人很少用到,价格相对来讲也稍微贵一些。3)Tesla系列,Tesla系列显卡定位并行计算,一般用于数据中心,具体点,比如用于深度学习,做训练、推理等。阿里云、Amazon云有非常多的GPU服务器,基本都采用Tesla系列显卡。这个系列显卡有个特别明显的特征,那就是贵。Tesla系列入门级显卡 Tesla P4,前面提到过,用来做深度学习的效果比GTX 1080还差,但是价格是后者的3倍多。双路e5跑深度学习也需要满载使用显卡。有的双CPU主板在只用单CPU时,另一个空的CPU插槽需装一块特殊的终结卡,所以在安装第二块CPU时要记得把这个终结卡取掉。双CPU一起使用时,要求两个CPU的主频和Cache大小必须一样。CPU主频和Cache是两个重要的参数,所以安装第二块CPU时也要在这两个参数上和前者吻合,这些参数在购买CPU时商家都会明确讲清楚。蓝海大脑作为NVIDIA英伟达的合作伙伴,一直专注于人工智能、大数据_数据挖掘、生命医药等领域,提供深度学习、高性能计算、虚拟化、分布式存储、AI集群管理、嵌入式平台等产品和整体解决方案,一直与众多高等院校人工智能学院和AI企业都保持十分紧密的合作关系,产品应用于深度学习、自动驾驶、视频编解码、视觉识别、智能教学、高性能计算实验室、高性能计算数据中心、大分子动力学,基因分析、医药研发、行为识别、生物分子研究、虚拟仿真、数字孪生等场景。感兴趣的话点击此处,免费了解一下
蓝海大脑是AI与HPC基础架构解决方案提供商,主营液冷GPU服务器、水冷工作站_GPU深度学习服务器、高性能服务器、显卡服务器、计算服务器、水冷服务器、边缘一体机等产品,适用于深度学习训练及推理等场景。结合人工智能、高性能计算、数据分析、云平台、分布式存储等技术,适用于深度学习、HPC、3D渲染、数据科学、医药研发、生命科学、小分子分析、机器学习、视觉识别等领域。
亿万克服务器售后服务覆盖全国大部分省市,他们要求24小时响应客户诉求。亿万克已经在服务器与存储设备领域深耕了整整26年。期间,亿万克为党政、金融、医疗、教育、电信、电力、交通和制造等多个行业和领域的客户在信息化发展和数字化转型中给予强大而安全的助力。如果你正在构建或升级你的深度学习系统,你最关心的应该也是GPU。GPU正是深度学习应用的核心要素——计算性能提升上,收获巨大。
主要任务:承担深度学习的数据建模计算、运行复杂算法。
蓝海大脑的液冷GPU服务器挺好的,具有高性能,高密度、扩展性强等特点。液冷GPU服务器产品支持1~20块 GPU卡,还可以选择,毕竟能可以选择也是很好的,芯片主要采用龙芯、飞腾、申威、海光、英伟达、Intel、AMD。完全定制啊,敲开心。适用于深度学习训练及推理、生命科学、医药研发、虚拟仿真等场景,覆盖服务器、静音工作站、数据中心等多种产品形态,量身定制,满足客户全场景需求。技术人员给的建议都非常受用。研究深度学习和神经网络大多都离不开GPU,在GPU的加持下,我们可以更快的获得模型训练的结果。深度学习和神经网络的每个计算任务都是独立于其他计算的,任何计算都不依赖于任何其他计算的结果,可以采用高度并行的的方式进行计算。而GPU相比于CPU拥有更多独立的大吞吐计算通道,较少的控制单元使其不会受到计算以外的更多任务的干扰,所以深度学习和神经网络模型在GPU的加持下会高效地完成计算任务。我们公司的GPU用的就是思腾合力家的,思腾合力深思系列产品就很适用于人工智能和深度学习训练等多领域GPU服务器,产品还挺好用硬件购买:
1 CPU:购买需要注意和主板接口类型匹配,如果很在意 GPU 是否工作在 PCIE x16 状态下,尤其是多块 GPU 都要求工作在 PCIE x16 状态下,那么需要注意主板是否支持,CPU 是否支持,这些消息都可以从主板官网(注意是官网,不是京东什么的信息说明)中查到,嫌麻烦或者查不到就问客服。一般来说家用主板 Z,B之类的一块卡工作在PCIE x16,两块卡就工作在 PCIE x8,三块及以上就工作在 PCIE x4 上了,尽量避免显卡工作在 PCIE x4 状态上,会影响内存到显存的数据传输速度。
2 主板:同 CPU,要注意和 CPU 的匹配、以及对于内存容量的支持和 PCIE x16 的支持,一般来说,多块 GPU 都工作在 PCIE x16 状态下,主板采用的 Intel 芯片都是 X 开头的,理所当然支持的 CPU 也是 X 型号的,这种主板也被称为服务器主板,一般都有 8 条内存插槽。主板这里唯一值得一提的是,深度学习训练多块 GPU 显卡之间不能靠得太近,除非是上显卡水冷,否则散热是个很大的问题,显卡太热就会降频,导致你买的好显卡没有体现出价值,还不如买个烂显卡。为此一般插显卡的时候遵循——隔着插,也就是说隔一条 PCIE 插下一块显卡,这对主板提出了更高的要求,双卡工作就需要有 4 个 PCIE 插槽,4 卡工作就要求有 8 个 PCIE 插槽,而且这样插显卡还需要满足 GPU 都工作在PCIE x16 的状态下,所以一定要仔细看官网的主板说明,不能偷懒。
3 电源:电源工作会有工作曲线,一般来说电源工作在最大功率一半的时候,效率最高,这意味着你花的每一分电费都用在了训练上,而不是逸散掉了,这样最好,比如你算了下需要 100W 的功率,那你最好买 200W 的电源。一般CPU功率在 100W 左右,GPU在 300W 左右,这样双卡功率就是 700W,买个 1300W 电源挺好,1000W 电源也是OK的,但不能更低了,除非你单卡。如果是 4 卡,建议直接 1600W。电源选择注意是否金牌,是否模组。对于那些 10 年及以上质保的,不要犹豫,这年头都给你 10 年质保了,你还有什么不满意的,价格上来说 1 元钱 1W,低于这个价格的就不要碰了,这里推荐振华。
4 GPU:穷鬼推荐 1080Ti,现在只有二手的了。其他人推荐 RTX Titan,显存大。2 块 RTX Titan 让你跑任何网络都游刃有余。
5 内存:一定要比单块 GPU 显存大,建议 32G 起步。
6 硬盘:推荐东芝 P300。
7 散热:DIY 建议不要水冷,一旦炸了,一切结束,水冷就交给厂商定制,省心省事还有质保,当然价格也贵,你也不用看此攻略了。风冷注意前面提到的显卡隔着插就 OK 了。还有就是机箱的风道一定要好,前后上三个方向都要有风扇。
8 机箱:尽量大一些,房子大谁都住得舒服,散热也好。除此之外,风道也要好,还要注意机箱大小和风扇尺寸匹配,别装不下了。推荐海盗船 AIR540,这可是 NVIDIA 服务器同款。昨日为实验室组了一台电脑。
装机没什么需要注意的,没有水冷正常装就行了。
对于小白我给以下次序有助于装机:
这个没什么可说的,镜像copy进u盘,uefi引导u盘开机装系统。
深度学习环境,照着tensorflow和nvidia官网给你的教程安就好了。
有两点注意:
完成。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)