在液冷服务器出现之前,数据中心主要是传统风冷机房,普遍面临两大困境:一是能耗问题,其中主要是空调制冷能耗占比较大,导致数据中心PUE居高不下,能源利用效率低下;二是高密度支持问题,传统风冷机房允许的单机柜功率密度较低,一般在3~5kW/机柜,而高性能、AI等场景要求20kW/机柜或更高的功率密度。
在这一背景下,液冷技术开始受到业界的青睐。
和传统的风冷技术相比,液体导热能力是空气的25倍,同体积液体带走热量是同体积空气的近3000倍。另外在耗电量方面,液冷系统约比风冷系统节省电量30%-50%。
2022年6月29日,工信部等六部门发布《工业能效提升行动计划》,明确规定,到2025年,新建大型、超大型数据中心电能利用效率(PUE,指数据中心总耗电量与信息设备耗电量的比值)优于13。这为液冷服务器和液冷数据中心建设带来了重要发展机遇。
传统风冷数据中心PUE往往大于18,因为风冷数据中心有室外空调,空调压缩机要正常运转,要有更多的电能让空调压缩机的冷风吹进去,热风吸收回来,再通过压缩机进行来回处理,让热风变成冷风。另外风的比热容很低,要具备极大的风量,能源损耗非常大,要让1000W的服务器正常运转,通常需要耗费18千瓦的电量。
那液冷如何降低能耗,降低数据中心PUE?
和风冷方式不同,液冷方式可以控制进冷却液温度,只要冷却液温度能够降到40度以下,就能够保障数据中心正常运转,唯一需要多耗费的电能是要有循环泵,把冷却液不断的循环,有CDU把冷却液量精准的分配到每台服务器上,这意味着全国绝大部分地区都能够使用无需压缩机的全年全自然冷却,能够把整个数据中心的PUE降到12以下。“液冷散热”,也叫作“水冷散热”,当电子产品长时间使用后就容易发热,尤其是做深度学习高性能计算的GPU服务器配件较多,且对运行速度有一定要求的电子产品,搞科研的人都知道,散热环节做不好,非常影响工作效率。在早期的散热系统有风冷散热,但风冷散热在现在已经不能服务器的散热需求了,于是就有了液冷散热,那么什么是液冷散热呢?液冷散热和风冷散热相似,只是液冷散热利用的是循环液和水冷块等,循环液把热量由水冷块搬动到换热器,最后散发出去,就能完成散热。
在这里我不得不推荐一款高性能深度学习服务器,供各位科研人员参考。蓝海大脑液冷服务器 HD210 H系列突破传统风冷散热模式,采用风冷和液冷混合散热模式——服务器内主要热源 CPU 利用液冷冷板进行冷却,其余热源仍采用风冷方式进行冷却。通过这种混合制冷方式,可大幅提升服务器散热效率,同时,降低主要热源 CPU 散热所耗电能,并增强服务器可靠性。经检测,采用液冷服务器配套基础设施解决方案的数据中心年均 PUE 值可降低至 12 以下。是个不错的选择Facebook把数据中心建在了北极,微软选择了“海底捞”,阿里把数据中心沉入千岛湖,腾讯和华为则藏进了贵州的山洞里。蓝海大脑液冷数据中心突破传统风冷散热模式,采用风冷和液冷混合散热模式——服务器内主要热源 CPU 利用液冷冷板进行冷却,其余热源仍采用风冷方式进行冷却。通过这种混合制冷方式,可大幅提升服务器散热效率,同时,降低主要热源 CPU 散热所耗电能,并增强服务器可靠性。经检测,采用液冷服务器配套基础设施解决方案的数据中心年均 PUE 值可降低至 12 以下⌄
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)