国内有哪些厂商在做深度学习方面的存储和服务器硬件?

国内有哪些厂商在做深度学习方面的存储和服务器硬件?,第1张

深度学习服务器/工作站,不能单独考虑硬件配置高低,以及预算多少,要根据使用者的类型,配置合理的硬件,硬件配置至少分为两个类型:

一、深度学习开发工作站/服务器 

基本要求:

1)处理器:8核或以上

2)内存:64G内存或以上

3)GPU:1-4块GTX1080Ti,GTX Titan XP/V,Quadro GP100

4)系统硬盘:选用高速的SSD固态硬盘

二、深度学习训练工作站/服务器 

基本要求:

1)处理器:8核或以上

2)内存:128G内存以上

3)GPU:4-10块Tesla系列GPU(K40,K80,P100,V100)

4)系统硬盘:选用高速的SSD固态硬盘组阵列(工作站:要求噪音小,适合办公室使用,服务器:要求密度高,噪音大,一般适用于机房)

针对人工智能的深度学习场景,思腾合力研发出深思AW4211-8GR服务器,具有高性能、高密度、可扩展性强的特点,支持双路AMD7002系列处理器,CPU直通设计,延迟降低至少150ms,同时节省PCIE Switch成本,可广泛应用于AI、深度学习场景,也可作为GPU计算集群高密度、高性能的节点平台。想了解更多可以百度一下

深度学习是需要配置专门的GPU服务器的:

深度学习的电脑配置要求:

1、数据存储要求

在一些深度学习案例中,数据存储会成为明显的瓶颈。做深度学习首先需要一个好的存储系统,将历史资料保存起来。

主要任务:历史数据存储,如:文字、图像、声音、视频、数据库等。

数据容量:提供足够高的存储能力。

读写带宽:多硬盘并行读写架构提高数据读写带宽。

接口:高带宽,同时延迟低。

传统解决方式:专门的存储服务器,借助万兆端口访问。

缺点:带宽不高,对深度学习的数据读取过程时间长(延迟大,两台机器之间数据交换),成本还巨高。

2、CPU要求

当你在GPU上跑深度网络时,CPU进行的计算很少,但是CPU仍然需要处理以下事情:

(1)数据从存储系统调入到内存的解压计算。

(2)GPU计算前的数据预处理。

(3)在代码中写入并读取变量,执行指令如函数调用,创建小批量数据,启动到GPU的数据传输。

(4)GPU多卡并行计算前,每个核负责一块卡的所需要的数据并行切分处理和控制。

(5)增值几个变量、评估几个布尔表达式、在GPU或在编程里面调用几个函数——所有这些会取决于CPU核的频率,此时唯有提升CPU频率。

传统解决方式:CPU规格很随意,核数和频率没有任何要求。

3、GPU要求

如果你正在构建或升级你的深度学习系统,你最关心的应该也是GPU。GPU正是深度学习应用的核心要素——计算性能提升上,收获巨大。

主要任务:承担深度学习的数据建模计算、运行复杂算法。

传统架构:提供1~8块GPU。

4、内存要求

至少要和你的GPU显存存大小相同的内存。当然你也能用更小的内存工作,但是,你或许需要一步步转移数据。总而言之,如果钱够而且需要做很多预处理,就不必在内存瓶颈上兜转,浪费时间。

主要任务:存放预处理的数据,待GPU读取处理,中间结果存放。

深度学习需要强大的电脑算力,因此对电脑的硬件配置自然是超高的,那么现在普通的高算力电脑需要高配置硬件。

产品类型 4U机架式
1 CPU 金牌6326 16核心32线程 基频29GHZ 加速频率35GHZ TDP: 185W 2
2 内存 512G(32GB32) DDR4 3200MHZ 1
4 准系统 超微420GP-TNR 4U机架式准系统, 带2200W冗余2+2电源;平台最大支持lO个GPU
32个DIMM插槽;母板超级X12DPG-OA6处理器中央处理器双插槽 P+ (LGA-4189)第三代英特尔 至强 可扩展处理器支持CPU TDP 270W核心高达40C/80T;高达 60MB 的缓存图形处理器支持的GPUHGX A100 8-GPU 40GB/80GB SXM4 多 GPU 1
5 SSD 三星PM9A1 1TB M2接口 NVMe协议 四通道 PCIe40 固态硬盘 1
6 SATA 希捷(Seagate)银河系列V6 6TB ST6000NM021A 7200RPM 256MB SATA3企业级硬盘 1
7 GPU卡 英伟达RTX 4090公版 4


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zz/12939323.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-29
下一篇 2023-05-29

发表评论

登录后才能评论

评论列表(0条)

保存