蓝海大脑的深度学习液冷服务器有什么作用?

蓝海大脑的深度学习液冷服务器有什么作用?,第1张

之前我司在做冷冻电镜项目时,有了解过蓝海大脑的深度学习液冷服务器,总结下来具备低成本、高效率的竞争优势。其中,液冷高密度服务器在2U空间支持4个双路节点,能够长期稳定工作于高性能模式,对机房适应性提升⌄可适应客户机房较高温度和高海拔环境,解决高功率CPU散热问题;采用温水冷却方式和CPU+VR+DIMM液冷板,PUE可达到12以下,显著降低制冷成本,并支持可移动的风液交换式CDU方案部署便捷。被广泛用在企业数据中心、云计算、人工智能、边缘计算、生命科学、遥感测绘、冷冻电镜等领域。

在几年之前,液冷服务器还只是“网红”产品,足够亮眼,技术惊艳,但并没有形成整个行业的共识进行推广。而现在,在中国“3060”双碳目标以及绿色数据中心建设的要求下,液冷数据中心建设已经成为整个行业的主推赛道。
在液冷服务器出现之前,数据中心主要是传统风冷机房,普遍面临两大困境:一是能耗问题,其中主要是空调制冷能耗占比较大,导致数据中心PUE居高不下,能源利用效率低下;二是高密度支持问题,传统风冷机房允许的单机柜功率密度较低,一般在3~5kW/机柜,而高性能、AI等场景要求20kW/机柜或更高的功率密度。
在这一背景下,液冷技术开始受到业界的青睐。
和传统的风冷技术相比,液体导热能力是空气的25倍,同体积液体带走热量是同体积空气的近3000倍。另外在耗电量方面,液冷系统约比风冷系统节省电量30%-50%。
2022年6月29日,工信部等六部门发布《工业能效提升行动计划》,明确规定,到2025年,新建大型、超大型数据中心电能利用效率(PUE,指数据中心总耗电量与信息设备耗电量的比值)优于13。这为液冷服务器和液冷数据中心建设带来了重要发展机遇。
传统风冷数据中心PUE往往大于18,因为风冷数据中心有室外空调,空调压缩机要正常运转,要有更多的电能让空调压缩机的冷风吹进去,热风吸收回来,再通过压缩机进行来回处理,让热风变成冷风。另外风的比热容很低,要具备极大的风量,能源损耗非常大,要让1000W的服务器正常运转,通常需要耗费18千瓦的电量。
那液冷如何降低能耗,降低数据中心PUE?
和风冷方式不同,液冷方式可以控制进冷却液温度,只要冷却液温度能够降到40度以下,就能够保障数据中心正常运转,唯一需要多耗费的电能是要有循环泵,把冷却液不断的循环,有CDU把冷却液量精准的分配到每台服务器上,这意味着全国绝大部分地区都能够使用无需压缩机的全年全自然冷却,能够把整个数据中心的PUE降到12以下。

“液冷散热”,也叫作“水冷散热”,当电子产品长时间使用后就容易发热,尤其是做深度学习高性能计算的GPU服务器配件较多,且对运行速度有一定要求的电子产品,搞科研的人都知道,散热环节做不好,非常影响工作效率。在早期的散热系统有风冷散热,但风冷散热在现在已经不能服务器的散热需求了,于是就有了液冷散热,那么什么是液冷散热呢?液冷散热和风冷散热相似,只是液冷散热利用的是循环液和水冷块等,循环液把热量由水冷块搬动到换热器,最后散发出去,就能完成散热。
在这里我不得不推荐一款高性能深度学习服务器,供各位科研人员参考。蓝海大脑液冷服务器 HD210 H系列突破传统风冷散热模式,采用风冷和液冷混合散热模式——服务器内主要热源 CPU 利用液冷冷板进行冷却,其余热源仍采用风冷方式进行冷却。通过这种混合制冷方式,可大幅提升服务器散热效率,同时,降低主要热源 CPU 散热所耗电能,并增强服务器可靠性。经检测,采用液冷服务器配套基础设施解决方案的数据中心年均 PUE 值可降低至 12 以下。是个不错的选择

Facebook把数据中心建在了北极,微软选择了“海底捞”,阿里把数据中心沉入千岛湖,腾讯和华为则藏进了贵州的山洞里。蓝海大脑液冷数据中心突破传统风冷散热模式,采用风冷和液冷混合散热模式——服务器内主要热源 CPU 利用液冷冷板进行冷却,其余热源仍采用风冷方式进行冷却。通过这种混合制冷方式,可大幅提升服务器散热效率,同时,降低主要热源 CPU 散热所耗电能,并增强服务器可靠性。经检测,采用液冷服务器配套基础设施解决方案的数据中心年均 PUE 值可降低至 12 以下⌄


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zz/10676989.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-10
下一篇 2023-05-10

发表评论

登录后才能评论

评论列表(0条)

保存