冷板式液冷服务器主要由换热冷板、热交换单元和循环管路、冷源等部件构成。通过将热量传递给循环管道中的冷却液体,再由液体本身的制冷特性将服务器产生的热量带走,提高冷板的冷却效率,大幅度降低数据中心的能耗。
其中冷板和冷源是散热能力的关键,冷板材质一般由高导热系数的材料构成,使得冷板表面接近等温,带走大量的集中热量。而冷源需要与与升温后的冷却液进行间接接触,通过带走冷却液的热量进行降温,使冷却液以低温状态进入芯片模块,进而进入散热循环。
浸没式液冷服务器
浸没式液冷服务器是通过浸没发热器件,使得器件与液体直接接触,进而进行热交换。因此冷却液为数据中心的换热介质,必须具有高绝缘、低黏度以及超强的兼容特性,是浸没式液冷技术的主要媒介。主板芯片等发热器件表面的散热性能在很大程度上影响介质沸腾的换热强度,若芯片表面光滑,则液体的散热效率更高。市场上常采用安装散热罩的方式,增大芯片的散热面积,从而提高散热效率,降低损耗率。
从以上分析不难看出二者区别,冷板式液冷技术在可维护性、空间利用率、兼容性方面具有较强的应用优势;但在成本方面,由于其单独定制冷板装置的原因,导致技术应用的成本相对较高。浸没式液冷技术虽然器件的可维护性和兼容性较差,但空间利用率与可循环方面具有较好的表现,符合碳排放标准和节能环保的理念。
浸没式液冷是将发热元件直接浸没在冷却液中,依靠液体的流动循环带走服务器等设备运行产生的热量。浸没式液冷是典型的直接接触型液冷。由于发热元件与冷却液直接接触,散热效率更高,噪音更低,可解决防高热谜底。
相较于风冷、水冷散热,浸没式液冷散热有如下明显优势:
1、节能性更加极致:冷媒与发热器件直接接触,换热效率更高,且可实现全面自然冷却,系统PUE<105;
2、元器件散热更加均匀:采用全浸没方式,服务器内部温度场更加均匀,器件可靠性更有保障;
3、无泄漏风险:采用绝缘、环保的冷却液体,即使发生泄露对基础设施硬件和外界环境均无任何风险;
4、噪声更低:服务器全部元器件均可通过液冷方式散热,内部实现无风扇设计,满载运行噪音<45dB;
5、功率密度大幅提升:单机柜功率密度可达60kW以上。
所谓的液冷,并不是单纯指的水。指的是把高比热容的液体作为传输介质,将IT设备或者服务器产生的热量带走,使之冷却。液冷技术相对于传统风冷技术有如下明显优势:
1热量带走更多:同体积液体带走热量是同体积空气的近3000倍。
2温度传递更快:液体导热能力是空气的25倍。
3噪音品质更好:同等散热水平时,液冷噪音水平比风冷噪音降低20-35分贝。
4耗电节能更省:液冷系统约比风冷系统节省电量30%-50%。
虽然时至今日国内大部分服务器或数据中心普遍还是采用传统的风冷散热,但随着国家“双碳”政策的部署落实,严格的PUE值限定,使得大部分风冷服务器应用的数据中心面临散热技术升级改造或全面的技术替代,液冷技术已成为服务器散热的必然趋势。传统风冷数据中心PUE往往大于18,即要让1000W的服务器正常运转,通常需要耗费18千瓦的电量。
因为风冷数据中心有室外空调,空调压缩机要正常运转,能源损耗非常大,而液冷服务器不同,它可以控制进冷却液温度,只要冷却液温度能够降到40度以下,就能够保障数据中心正常运转,唯一需要多耗费的电能是要有循环泵,把冷却液不断的循环,有CDU把冷却液量精准的分配到每台服务器上,这意味着全国绝大部分地区都能够使用无需压缩机的全年全自然冷却,能够把整个数据中心的PUE降到12以下。使用浸没式液冷数据中心的PUE甚至可以达到惊人的103-107。但是相同规模的风冷系统数据中心,其PUE值还在13-15之间。
什么是液冷?
顾名思义,液冷就是采用冷却液体接触热源进行冷却的方式。
传统服务器的冷却方式是通过空气进行换热,该技术方案很好的将IT设备与冷却设备进行了解耦,从而使得制冷系统形式能够实现多样化,但由于空气比热容较小,体积流量受服务器进风口大小限制,换热能力有限。自然而然,为了提高换热效率,采用更高比热容的换热介质、更大接触换热面积的、更大的换热体积流量的方案就成为了提高制冷效率的必然选择。从这三方面考虑,采用全面浸没的换热方式显然具有更高的换热效率,从而可以实现更好的节能效果。因此,液冷技术就顺其自然的进入了数据中心领域。
什么是风冷?如何区别液冷和风冷?
很多人会把传统意义上的风冷和液冷所对应的“风冷”概念相互混淆。其实,传统上所谓的风冷和水冷,指的是数据中心制冷系统的室外侧冷却方式。其中传统上默认的服务器冷却方式都是空气冷却(风冷);而液冷相对所说的风冷,指的是室内侧服务器的冷却散热方式,这二者完全是指的两个不同部分的换热形式。因此,可以参考冷水主机关于室内侧和室外侧换热整合的说法进行命名。按照数据中心室外侧散热方式+室内侧服务器换热方式的完整命名方式划分,可分为四种类型,其分类方式应该按照如图3所示两两组合:
风冷与水冷场景定义
由此我们可以得到更为全面的室外侧+室内侧的冷却类型分类命名方法:分别是全风冷(代表:传统DX系统精密空调)、风冷液冷(液冷+干冷器/风冷冷凝器)、水冷风冷(代表:水冷冷冻水系统)和水冷液冷(液冷+冷却塔)四种形式。
由此我们可以看到,液冷和传统上数据中心所说的“风冷”并不是同一维度的事物,我们需要将室内外两侧区分开来看待,液冷同样具有多种的换热形式,可以实现完全不消耗水的空气冷却方案,也可以称之为风冷液冷或无水液冷。
作为国内液冷技术的领先者,海光芯创基于自身液冷集成平台所自研的液冷光模块,在数据中心节能减碳方面发挥了巨大价值。可直接降低数据中心运营成本,能耗降低近40%。海光芯创 液冷光模块
液冷不仅是散热方式的改变,更可能改变整个数据中心的生态,目前关于液冷标准还处在一个需要完善的阶段。未来,海光芯创将携手产业链上下游合作伙伴,推动液冷标准的完善,从而让液冷数据中心快速发展。
来源:阿里基础云设施 作者:严瀚(仅做信息交流使用。如有侵权,联系删除)
之前我司在做冷冻电镜项目时,有了解过蓝海大脑的深度学习液冷服务器,总结下来具备低成本、高效率的竞争优势。其中,液冷高密度服务器在2U空间支持4个双路节点,能够长期稳定工作于高性能模式,对机房适应性提升⌄可适应客户机房较高温度和高海拔环境,解决高功率CPU散热问题;采用温水冷却方式和CPU+VR+DIMM液冷板,PUE可达到12以下,显著降低制冷成本,并支持可移动的风液交换式CDU方案部署便捷。被广泛用在企业数据中心、云计算、人工智能、边缘计算、生命科学、遥感测绘、冷冻电镜等领域。现在还有能力在世界上各个流行层面上的只有超微AMD、英伟达NVIDIA、和英特尔INTEL三家能研发生产显卡,也就是GPU,在所有流行级别。当然,市场上还有很多其他品牌。像这些大公司߅都有代理商或者经销商。像蓝海大脑和这些大公司有着密切的合作关系,也是英伟达的官方授权经销商。我们公司用的很多服务器都是从蓝海大脑采购的,质量和服务都很好。如果有不明白的地方,可以随时联系他们,这样还是比较满意的,所以找个靠谱的经销商也是不错的选择。“液冷”是指使用高比热容的液体作为热量传输的工质满足服务器等IT设备散热需求的冷却方式,主要分为间接接触型液冷和直接接触型液冷,纯净水水、矿物油、氟化液都是常用的冷却液。目前液冷技术主要应用于高性能计算,广泛使用在数据中心、边缘计算、人工智能技术等方面。
据资料估算,将有超过20%的边缘计算数据中心会采用液冷技术。液冷技术由于其高效,部署对建筑物依赖度低以及静音安全等特点,可满足场地电力容量不足的条件下部署更高密度。
据中国信息通信研究院官方消息,5项数据中心液冷行业标准已于2021年12月发布,并将于2022年4月1日起正式实施;同时伴随着“东数西算”工程正式全面启动,数据中心制冷行业将大幅受益。以下上市公司在数据中心相关领域的液冷方向有所布局值得关注:
申菱环境(301018)
公司作为华为机房精密空调的主要供应商,销售份额保持稳定且占比较高,华为定制类和中大型暖通设备主要向申菱采购,用于企业业务和运营商业务。基于与华为的战略合作经验,不断向同类客户群体延伸,目前已得到了包括曙光、中国移动、阿里、腾讯、百度、秦淮数据、世纪互联、浪潮、科华、万国等众多客户的认可,并在逐步扩大合作范围。
2022年2月20日公司在互动易平台披露:数据中心相关业务是公司最大业务板块。国家推进东数西算以及加大算力枢纽节点的建设将创造大量市场机会,公司将结合碳中和大背景加大在高效节能的数据中心散热系统如新型蒸发冷产品,自然冷产品,液冷产品等的投入和拓展。
依米康(300249)
公司的核心业务为数据中心等信息数据基础设施全生命周期提供整体解决方案。公司聚焦数据中心科技基础设施行业的耕耘,构建了在行业内实现产业链的贯通经营,已经形成专业整体解决方案品牌优势。
2020年3月,公司在互动易平台表示:公司正在开展液态金属制冷技术应用研究。2022年1月26日公司互动易披露:公司相关产品、解决方案已经包含了数字孪生的技术和应用,如现在数据中心领域,前期的bim建模,空调的数字化设计、仿真与制造,用于全生命周期管理的大数据平台,都是数字孪生技术实际应用。
巨化股份(600160)
公司是国内领先的氟化工、氯碱化工新材料先进制造业基地,主要业务为基本化工原料、食品包装材料、氟化工原料及后续产品的研发、生产与销售。公司拥有氯碱化工、硫酸化工、煤化工、基础氟化工等氟化工必需的产业自我配套体系,并以此为基础,形成了包括基础配套原料、氟致冷剂、有机氟单体、含氟聚合物、精细化学品等在内的完整的氟化工产业链,并涉足石油化工产业。
公司成功开发出了高性能大数据中心设备专用的巨芯冷却液,填补了国内高性能大数据中心专用冷却液的空白,主要性能指标与国外垄断产品相当。公司浸没式冷却液项目规划产能5000吨/年,其中一期1000吨/年项目已处于建设阶段。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)