如何提高PUE值 数据中心能耗详解

如何提高PUE值 数据中心能耗详解,第1张

答:WUE数据中心能效管理中分量较轻的基石之一。

WUE:Water Usage Effectiveness;

WUE=数据中心用水量/数据中心IT设备用电量,单位L/kwh;

WUE是用来表征数据中心单位IT设备用电量下数据中心的耗水量。

什么是IDC机房

IDC(Internet Data Center),即互联网数据中心。是指在互联网上提供的各项增值服务服务。IDC即是Internet Data Center,是基于INTERNET网络,为集中式收集、存储、处理和发送数据的设备提供运行维护的设施以及相关的服务体系。IDC提供的主要业务包括主机托管(机位、机架、VIP机房出租)、资源出租(如虚拟主机业务、数据存储服务)、系统维护(系统配置、数据备份、故障排除服务)、管理服务(如带宽管理、流量分析、负载均衡、入侵检测、系统漏洞诊断),以及其他支撑、运行服务等。

3、 什么是PUE

Power Usage Effectiveness的简写,是评价数据中心能源效率的指标,是数据中心消耗的所有能源与IT负载使用的能源之比,是DCIE(data center infrastructure efficiency )的反比。

PUE = 数据中心总设备能耗/IT设备能耗,PUE是一个比率,基准是2,越接近1表明能效水平越好。

4、 什么是NCPI

NCPI 的中文意思是“网络关键物理基础设施”,是英文“Network Critical Physical Infrastructure”的缩写。NCPI 是第一次以系统性的思维方式、系统性的研究方法去看待 IT 基础设施,同时,它也为学术界、提供商、用户提供了一个标准,来指导他们的规划、设计、实施、维护、管理及评估行为。

5、 IT系统的组成

一个IT系统可由4个层面组成:

1) 人员(people)

2) 流程(process)

3) 信息系统(Information Technology)

4) 网络关键基础物理设施

6、 数据中心子系统的组成

1)物理结构

2)配电

3)不停电供电电源

4)发电

5)加热和冷却

6)加热和冷却冗余备份

7)现场安全性

8)高架地板

9)防火和灭火

10) 监控系统

11) 紧急断电

PUE不大于14在空调技术上是可行的。制约PUE的,我认为,现阶段主要是冷却技术、空调技术、如何高效排热的问题。

贴一个清华大学江亿院士的演讲:

各位来宾、各位专家、各位领导早上好!我好象是第一次参加绿色数据中心的技术大会,因为咱们不是搞计算机这行的,是搞空调,搞建筑节能的,但是好象也慢慢把我们推到这个行业了。为什么?是因为空调的能耗或者说派热降温的能耗在数据中心里占了比较大的比例。所以,刚才我听前面这位领导讲数据中心都快到了运行这个程度了,运行主要是能源消耗,能源消耗里就40%或者更多是空调的能耗。所以,怎么能够降低空调的能耗,一方面给国家的节能减排作贡献,一方面也使我们数据行业产生更好的经济效益,就变成重要的问题了,所以我今天跟大家汇报一下我们在这方面的想法跟体会。

从空调的特点来看,现在随着计算机电子技术的发展,芯片技术都比原来高,主机的发热度越来越大,这样导致空调排热成为这里面大的部分。后面有一些细的发展状况不说了,就直接看到空调里头。现在统计大致的结果,对于中小型的数据中心大概PUE值都在2,或者以上,这是空调占了一半或者还多的一个能源消耗。对大型的IDC机房管理做的比较好的,这时候空调效率相对比较高,但是也能占到40%左右的能耗。

所以,降低数据中心的能耗可能一个是提高服务器的使用效率,没活儿的让它歇着,一方面减少了空气的运行能耗,当然,电源也有可以提高的技术。空调应该有很大的潜力,空调里面的能耗由什么构成?以前一想说制冷机,压缩机耗电多,实际上压缩机耗电在50%-60%左右,除了压缩机之外,风机也能占在40%或者更多的空调耗能。

现在的情况什么样?大概有这么几块:第一、因为全年制冷,所以绝大部分的数据中心制冷机都开了,这是一年来总的空调的考点状况,可以看出冬天、夏天区别很少,北京、上海、广州冷的地方,热的地方区别很少,应该说冬天天凉了,北京空调越来越大幅度下来,这个变化也不大,所以全年度在这儿用。然后,有关发热密度非常大,负责把这些热量排走,所以循环风特别大。并且风吹的还厉害,不行把风量减少,降低送风温度,但是当冷源温度低于屋子里温度的时候,蒸发器就凝水,恨不得天天都出湿,出了湿又怕屋子里太干,所以又有了一些加湿器,这边除湿,那边又得加湿,又得用电,冬天大冷的天还得制冷,这构成了现在数据中心,无论是大的,还是小的空调能源消耗高的主要问题。

有这样问题是坏事儿,反过来又是好事儿。说明咱们在这儿的潜力特别大,有很大的潜力可以把空调能源消耗降下来。那么,走哪条道?怎么做?一听说这个空调跟你们建筑节能是一码事,建筑节能都抓围护结构保温,咱们整这个,围护结构,效果非常小,或者无效果,为什么?因为一个IDC密一点的机房一平米大概产热量3-5千万,通过围护结构进入或者出去的热量不会超过折合在占地面积上不会超过50瓦,所以,围护结构的影响很小,就是1%,2%的影响。当然,通过一些技术,避免外墙直接太阳辐射,比来我这儿热,再拿太阳照我,尽可能的密闭,别让风进来,这是很重要的。可能有些专家说,风渗进来,有什么不好,如果房子做的不密闭,就是不可控制的室外渗风,是凉快了,但是湿度下降了,夏天热容器不好,而且由于室外的湿度变化大,我数据中心里面希望湿度维持基本稳定不变,给我添加湿、除湿的麻烦事儿。因此,通过各方面应该把房子做密闭了,对目前来说不是保温的事儿,而且密闭的事儿,密闭最重要。

那么,怎么把热量排出去,马上前几年一些企业想办法说既然冬天不开制冷机,而且外边凉,最简单的通风换气吧,是通过凉风进来,把热量排走,这是有点节能,但是恐怕数据中心这么做不太合适,为什么?室外的灰尘赃,机器得干净,湿度室外是变化的,夏天北京的一立方米空气有2克的水汽,另外中国是烧煤的国家,70%的化石能源都来自于煤,燃煤就出硫,硫化物到室内,就会导致表面发生腐蚀现象,所以这是不行,您的冷却系统是为主机服务的,要是有损于主机,无论是灰尘还是硫化物,还有湿度都会影响主机的寿命,这是绝对不能有的。因此,说就想法通过过滤消除灰尘,想法加湿、除湿改变湿度,想法脱硫,当把这些东西都架上,就发现投入的成本和能源消耗就不低了,而且维护管理的工作量立刻上去了,那么这么大的数据中心要求高可靠性运行,于是这事儿有点别扭了。

还有通过热交换把凉气取回来,这个思路是挺好,对于一些小规模的计算中心,像一个大楼里的数据中心有时候还可以,但是对于大规模的机房是无法实现的,是因为直接走风道这么大发热量得有多大的风量直接室外来回换气,风道的体积在那儿摆着不合适,然后维护工作量非常大,尤其还是赃。所以,室外的低温必须想法用上,是通过室外的新风,怎么通过某种能量凉下来,最后把机器里面的热量带走。

所以,整个的数据中心的空调跟咱们楼里的空调概念不一样,它的核心事儿就是怎么把芯片那儿出来的热量通过某种介质传热,传完之后,几次交换,最后导到室外去就这么一个任务。所以,这时候根本目标就是让芯片的温度不要超过标准温度,然后把这个温度排出来。这样芯片表面温度和冷源温度的差跟热阻成正比,就是怎么把这个等效热阻降低了核心的事儿就变成了这么一个问题。温差小就是如果我芯片温度不许超过40度,如果我的温差是20度,只要室外温度低于20度,我就不用开冷空气就可以把热量排走,所以就要减少等效热阻。那么,这个等效热阻由什么构成?发现就像咱们的一个网络,三个电阻,三个等效热阻,哪三个过程?一个就是芯片跟空气之间的换热环节,这个差越大,温差就越大,比如我可以取平均温度,等效热阻就是这块面积除以热量,第一个环节就是容器跟芯片表面换热的环节。第二个环节,比如说我有一个精密空调跟水,或者室外的冷水换热,这冷水跟容器之间的换热环节,我们叫输送与换热热阻。第三个环节,循环介质与冷源之间换气,叫做冷源换热热阻。比如说室内温度到20度,实际只欠10度的温差,这时候冷空机提供的活儿就是这10度的温差。所以,把热阻减少了,无论是用自然冷源还是开冷风机都可以降低功耗。因此,核心的问题就是把这三个环节的热阻降下来。所以,就三个关键,第一、降低热量采集过程的热阻,同时不增加风机电耗。第二、降低热量传输过程中的热阻,同时不增加传输电耗。第三、找到温度更低的自然冷源,但是别破坏环境。

下面逐条看,采集过程中的热阻,实际的采集热阻,除了空气跟芯片换热之外,还有相当大的消耗是机房里面冷风跟热风的互相搀混,制冷机就是把冷风热的温度分开,分出冷热风,这个屋子里面又没地儿跑,又搀混起来了,所以避免冷风热机的搀混。比如说要是给定芯片温度,当搀混小的时候,回风温度可以更紧的接近芯片,如果我恒定芯片温度回风少的时候,这样就可以更大程度的利用这个资源。有一些实测的数据,是在大的IC机房里实测的,大家可以看出来,比如冷通道进来,从机房送出来应该这儿是16点几度,到这儿怎么就能30多度呢?它这儿上面还有一块挡,这30多度是哪儿来的?就是因为部分的过了服务器之后,服务器里面有空档,空档的热风又渗回来了,热风跟这些东西搀混到这些地儿,能到35度。为了保证上面服务器的这些效果,于是就得降低送风温度,为了保证上面差不多,结果把这个温差就拉大了,导致整个的冷交热的增加。所以,这儿看着排风有40度的,这些排风35、36度,总的到空调下一看,派风温度才28度,怎么降下来了?就是凉风过去跟热风搀和起来了,这样芯片大概在45度以上。如果避免了这些混合之后,就可以把回风温度很容易提高到35度,输送温度也可以提高到20度,保持芯片温度最高的温度不变,于是这温差小多了,采集的等效热阻下来了。当然,具体计算可以拿出温度差仔细算出来知道什么毛病,总的指导思想是这样的。所以,在机柜顶部架一些挡板,这样能够有点改善。但是由于金桂内刀片式服务器之间不可避免存在气流短路现象,因此,仍存在短路现象,使冷气流通道内有旁通过来的热气流,热气流通道内也会有旁通过来的冷气流。

还有就是直接把换热器安装在机柜内,在机柜内或者机柜旁制备冷空气,可以有效减少掺混这样现象,降低热量采集过程温差,可以减少风量、丰足,大幅降低风机电耗。所以,这是很重要一条,但是不能让柜子出水。

这样有一种做法,就是采用背板冷却,将空调系统热换器安装在装载IT设备的机柜上,根据机房内各个不同的机柜实现按需供冷,避免局部热。分布式制冷系统使空调系统的吸热端更接近热源。这是第一个减少采热采集过程中的热阻。

第二减少输配过程中的热阻,实际这个环节比如一条空调器,是空气跟水的换热,那么空气温度是这样的,水温度是这样的,就会看到有时候往往都不是平衡的,是带三角形性质的,只要带三角形性质,就浪费一部分温差。所以,想法调整两边的流量,使得两边的温差接近,可以有效的降低数配系统的等效热阻,或者减少等效温差。有时候说是由于我用背板,或者机柜里的换热器那里面不是走水,无论是走二氧化碳,还是走氟利昂,这是机柜内送派风温度,这是热管温度,这是室外侧进出口温度,是这么一个过程,(如图所示),还有一种换热器,每排的热管单独连接,这时候室内室外的温度就变小多了,尽管换热面积一样,它就强多了。当然,这样会导致热管布置起来要复杂,但是在二者之间,总有一个好的权衡去减少输送过程的热阻或者说降低它的温差。

第三条就是到底我们用什么样的室外的自然冷源和怎么把这自然冷源跟我的机械制冷有机的统一结合起来?因为有时候天热还得开冷机,这二者之间能不能实现一个比较自然的转换?我们现在看看到底把这个热量往哪儿排,实际在空气里面并不是一个空气的问题,咱们有三种温度,一种就是空气的干球温度,像今天大概室外27、28度,是天气预报说的温度。直接换热就是干球温度。但是,如果我对外面拿冷却塔喷水,就是湿球温度,大概23、24度。比如到五一湿球温度比干球温度低的多,所以通过冷却塔就可以降低湿球温度,还可不可以再降低,还有一种就是间接蒸发冷却,西部地区很多地方用它做空调,它可以把试问降到室外的露点温度,像现在这个时候,北京的露点温度低于20度了。

这是拿北京气侯为例,蓝的是全球的干球温度,红的是湿球温度,绿的是全年的露点温度的变化。所以,我要是安全露点温度考虑问题,全年北京市5876小时低于20度的时间占全年的67%,如果热阻做好了,就只有10%几的时间,做不好,15度的时候,露点温度也能占到77%的时间。所以这个比例还是挺大的。

那么,怎么跟制冷机统一起来,实现无缝连接,自然过渡呢?这是一个方案,包括几部分,先说柜子,刚才我讲背板式的换热,现在是上下的换热,屋子里的空气26度,从这儿进入机柜,两组换热器,一组一个管给19度,一个管给16度,经过两种换热,从26度到20度,经过发热的服务器,达到32度,然后经过两组换热器降温,又变成26度,再回来,维持屋子里的温度是26度,不是靠屋子里别地儿装的孔,而是靠这个机柜,屋子里的温度是由机柜决定的,由于屋子里的温度是16度,露点温度只有12、13度,我把物资弄密闭了,人也不怎么进去,里面没有湿的事儿。然后,这四组换散热器,拿热管引出来,这四组是16、19、22、25度,然后这个水就是跟这热管换热,把热量都带到水里去,所以从15恩度,涨到24度。然后,24度,如果室外是两管,冷空气不用开,直接经过间接冷却塔就能够把水温降大15度,如果温度再低,只要朝这风机跟这儿的转换装置,能够维持我进入到换热器全年只有15度。当室外温度高到30度,露点温度到18度,这时候冷却塔还能起一点作用,能起1/3的冷量还从这儿出,不足了再拿冷风机降一部分。所以,这个冷风机是连续的就能够使得冷风气从10%的复合逐渐加到5%的复合。冷却塔只要露点温度在20度以下,总能起点作用。

这样一个系统,这儿计算了一下,拿北京的气象条件可以看出来,如果是这么一个机房,跟一般传统的机房来比,咱们就直接取它一年用电量是百分之百,那么即使没有自然冷源,就是拿制冷机做,但是因为我减少了掺混,减少了数配能耗,能够节能40%几。如果用最好的间接冷却方式,用电量只有23%,能够节省70%的电量,所以有巨大的节能潜力。

按照这个思路,我们有一些机房的改造实例,这是清华大学图书馆的一个全校支持整个学老师、同学做研究的数据中心。它原来就是在这个屋子里头摆了一堆空调器,机器多了,热量还大,所以追加了好几台空调器。用了跟刚才这个图差不多的方式,结果总机柜里面的风机降到7千瓦,这时候能效比从27涨到82,就只用原来1/3的能耗。最热的时候,冷机都得开了,即使如此,能耗还能差一半。所以,全年下来总的能耗消耗能够降低60%左右,这就是一个实际案例,这个还有一些遗憾的地方,就是做得不彻底,做得彻底了,还能够进一步降低消耗量。

总结一下,就是数据中心排热的空调实际上有巨大的节能潜力和节能空间。它的核心是机房的气流组织怎么采集热量合理的空调器,其中几个基本原则,一个就是尽可能避免不同的温度的气流掺混,我们现在对机柜进行空调制冷的目的,不是对机房进行空调制冷,所以尽可能把冷源越贴近发热体越好,充分的利用自然冷源,有各种不同的法子获得不同温度的,然后想法介绍能耗,这样给出去的这些思路,今天讲的某一两个做法,实际在这个思路下发挥创新的精神还可以创造出好些各种各样的方案,真正把数据中心排热的空调能耗降下来。我们觉得完全按照目前大多数方式来比较,有可能把机房的空调节能达到70%以上,相当以机房用电量降低30%以上。刚才我听领导讲,国外发达国家比,机房的PUE到12,13那跟它机房的位置有关系。在不同的气侯条件下,实际上抓好这几条,以自然冷源为主,适当的加一点机械制冷的补充,解决一年里面20%,25%的节能,完全可以把我们国家不同地方数据中心的空调能耗都有效的降下来,应该做的比发达国家,比美国还好,谢谢大家。

惠普推动绿色刀片策略造绿色数据中心

随着国家政策对节能降耗要求的提高,节能降耗正成为国家、全社会关注的重点。而IT能耗在所有的电力使用当中所占比重的不断上升,已经使其成为社会提倡节能降耗主要领域之一。做为全球领先的IT公司和一家具有强烈社会责任感的企业,惠普公司积极倡导“绿色IT”的理念,并加大研发,推出了一系列的针对绿色IT的创新技术和产品。10月26日,惠普公司在香山饭店举办了“绿色刀片”的研讨会,介绍了惠普公司新一代数据中心以及新一代刀片系统BladeSystem c-Class在供电散热等方面的绿色创新技术以及环保节能优势,并推出了针对绿色数据中心的完整解决方案。

长期以来,更强大的数据中心处理能力一直是我们追求的目标。但在能源开销与日俱增的今天,处理能力发展的另一面是需要消耗更多的资源。而且随着服务器密度的不断增大,供电需求也在相应增加,并由此产生了更多的热量。在过去的十年中,服务器供电密度平均增长了十倍。据IDC预测,到2008年IT采购成本将与能源成本持平。另一方面,数据中心的能耗中,冷却又占了能耗的60%到70%。因此,随着能源价格的节节攀升,数据中心的供电和冷却问题,已经成为所有的数据中心都无法回避的问题。

惠普公司十几年来一直致力于节能降耗技术的研究,并致力于三个层面的创新:一是数据中心层面环境级的节能技术;二是针对服务器、存储等IT产品在系统层面的绿色设计;三是对关键节能部件的研发,如供电、制冷、风扇等方面的技术创新。目前,来自惠普实验室的这些创新技术正在引领业界的绿色趋势。针对数据中心环境层面,惠普推出了全新的动态智能冷却系统帮助客户构建新一代绿色数据中心或对原有数据中心进行改造;在设备层面,惠普的新一代绿色刀片服务器系统以能量智控(Thermal Logic)技术以及PARSEC体系架构等方面的创新成为未来数据中心节能的最关键基础设施;同时这些创新技术体现在一些关键节能部件上,如Active Cool(主动散热)风扇、动态功率调整技术(DPS, Dynamic Power Saver)等。惠普公司的绿色创新将帮助客户通过提高能源效率来降低运营成本。

HP DSC精确制冷 实现绿色数据中心

传统数据中心机房采用的是平均制冷设计模式,但目前随着机架式服务器以及刀片服务器的出现和普及,数据中心出现了高密度服务器与低密度混合的模式,由于服务器的密度不均衡,因而产生的热量也不均衡,传统数据中心的平均制冷方法已经很难满足需求。造成目前数据中心的两个现状:一是目前85%以上的机房存在过度制冷问题;二在数据中心的供电中,只有1/3用在IT设备上,而制冷费用占到总供电的2/3 。因此降低制冷能耗是数据中心节能的关键所在。

针对传统数据中心机房的平均制冷弊端,惠普推出了基于动态智能制冷技术的全新解决方案——“惠普动态智能冷却系统”(DSC, Dynamic Smart Cooling)。动态智能冷却技术的目标是通过精确制冷,提高制冷效率。DSC可根据服务器运行负荷动态调控冷却系统来降低能耗,根据数据中心的大小不同,节能可达到20 %至45%。

DSC结合了惠普在电源与冷却方面的现有创新技术,如惠普刀片服务器系统 c-Class架构的重要组件HP Thermal Logic等技术,通过在服务器机架上安装了很多与数据中心相连的热能探测器,可以随时把服务器的温度变化信息传递到中央监控系统。当探测器传递一个服务器温度升高的信息时,中央监控系统就会发出指令给最近的几台冷却设备,加大功率制冷来降低那台服务器的温度。当服务器的温度下降后,中央监控系统会根据探测器传递过来的新信息,发出指令给附近的冷却设备减小功率。惠普的实验数据显示,在惠普实验室的同一数据中心不采用DSC技术,冷却需要117千瓦,而采用DSC系统只需要72千瓦。

惠普刀片系统:绿色数据中心的关键生产线

如果把数据中心看作是一个“IT工厂”,那么“IT工厂”节能降耗不仅要通过DSC等技术实现“工厂级”环境方面的节能,最重要的是其中每一条“生产线”的节能降耗,而数据中心的生产线就是服务器、存储等IT设备。目前刀片系统以节约空间、便于集中管理、易于扩展和提供不间断的服务,满足了新一代数据中心对服务器的新要求,正成为未来数据中心的重要“生产线”。因此刀片系统本身的节能环保技术是未来数据中心节能降耗的关键所在。

惠普公司新一代绿色刀片系统HP BladeSystem c-Class基于工业标准的模块化设计,它不仅仅集成了刀片服务器和刀片存储,还集成了数据中心的众多要素如网络、电源/冷却和管理等,即把计算、存储、网络、电源/冷却和管理都整合到一起。同时在创新的BladeSystem c-Class刀片系统中,还充分考虑了现代数据中心基础设施对电源、冷却、连接、冗余、安全、计算以及存储等方面的需求。

在标准化的硬件平台基础上,惠普刀片系统的三大关键技术,更令竞争对手望尘莫及。首先是惠普洞察管理技术——它通过单一的控制台实现了物理和虚拟服务器、存储、网络、电源以及冷却系统的统一和自动化管理,使管理效率提升了10倍,管理员设备配比达到了1:200。第二是能量智控技术——通过有效调节电力和冷却减少能量消耗,超强冷却风扇相对传统风扇降低了服务器空气流40%,能量消耗减少50%。最后是虚拟连接架构——大大减少了线缆数量,无需额外的交换接口管理。允许服务器额外增加、可替代、可移动,并无需管理员参与SAN和LAN的更改。

目前,惠普拥有完整的刀片服务器战略和产品线,既有支持2路或4路的ProLiant刀片服务器,也有采用安腾芯片的Integrity刀片系统,同时还有存储刀片、备份刀片等。同时,惠普BladeSystem c-Class刀片服务器系统已得到客户的广泛认可。根据IDC发布的2006年第四季度报告显示,惠普在刀片服务器的工厂营业额和出货量方面都占据了全球第一的位置。2007年第二季度,惠普刀片市场份额472%,领先竞争对手达15%,而且差距将会继续扩大。作为刀片市场的领导者,惠普BladeSystem c-Class刀片系统将成为数据中心的关键基础设施。

PARSEC体系架构和能量智控:绿色生产线的两大核心战略

作为数据中心的关键基础设施,绿色是刀片系统的重要发展趋势之一,也是数据中心节能的关键所在。HP BladeSystem c-Class刀片系统的创新设计中,绿色就是其关键创新技术之一,其独特的PARSEC体系架构和能量智控技术就是这条绿色生产线的两大关键技术。

HP PARSEC体系结构是惠普刀片系统针对绿色策略的另一创新。目前机架服务器都采用内部几个小型局部风扇布局,这样会造成成本较高、功率较大、散热能力差、消费功率和空间。HP PARSEC(Parallel Redundant Scalable Enterprise Cooling)体系结构是一种结合了局部与中心冷却特点的混合模式。机箱被分成四个区域,每个区域分别装有风扇,为该区域的刀片服务器提供直接的冷却服务,并为所有其它部件提供冷却服务。由于服务器刀片与存储刀片冷却标准不同,而冷却标准与机箱内部的基础元件相适应,甚至有时在多重冷却区内会出现不同类型的刀片。配合惠普创新的 Active Cool风扇,用户就可以轻松获得不同的冷却配置。惠普风扇设计支持热插拔,可通过添加或移除来调节气流,使之有效地通过整个系统,让冷却变得更加行之有效。

惠普的能量智控技术(Thermal Logic)是一种结合了惠普在供电、散热等方面的创新技术的系统级节能方法,该技术提供了嵌入式温度测量与控制能力,通过即时热量监控,可追踪每个机架中机箱的散热量、内外温度以及服务器耗电情况,这使用户能够及时了解并匹配系统运行需求,与此同时以手动或自动的方式设定温度阈值。或者自动开启冷却或调整冷却水平以应对并解决产生的热量,由此实现最为精确的供电及冷却控制能力。通过能量智控管理,客户可以动态地应用散热控制来优化性能、功耗和散热性能,以充分利用电源预算,确保灵活性。采用能量智控技术,同样电力可以供应的服务器数量增加一倍,与传统的机架堆叠式设备相比,效率提升30%。在每个机架插入更多服务器的同时,所耗费的供电及冷却量却保持不变或是减小,整体设计所需部件也将减少。

Active Cool风扇、DPS、电源调整仪:生产线的每个部件都要节能

惠普BladeSystem c-Class刀片系统作为一个“绿色生产线”,通过能量智控技术和PARSEC体系架构实现了“生产线”级的节能降耗,而这条生产线上各组成部件的技术创新则是绿色生产线的关键技术保障。例如,深具革新意义的Active Cool风扇,实现智能电源管理的ProLiant 电源调整仪以及动态功率调整等技术。

风扇是散热的关键部件。风扇设计是否越大越好?答案是否定的。市场上有的刀片服务器产品采用了较大型的集中散热风扇,不仅占用空间大、噪音大,冗余性较差、有漏气通道,而且存在过渡供应、需要较高的供电负荷。

惠普刀片服务器中采用了创新的Active Cool(主动散热)风扇。Active Cool风扇的设计理念源于飞行器技术,体积小巧,扇叶转速达136英里/小时,在产生强劲气流的同时比传统型风扇设计耗电量更低。同时具有高风量(CFM)、高风压、最佳噪音效果、最佳功耗等特点,仅使用100瓦电力便能够冷却16台刀片服务器。这项深具革新意义的风扇当前正在申请20项专利。Active Cool风扇配合PARSEC散热技术,可根据服务器的负载自动调节风扇的工作状态,并让最节能的气流和最有效的散热通道来冷却需要的部件,有效减少了冷却能量消耗,与传统散热风扇相比,功耗降低66%,数据中心能量消耗减少50%。

在供电方面,同传统的机架服务器独立供电的方式相比,惠普的刀片系统采用集中供电,通过创新的ProLiant 电源调整仪以及动态功率调整等技术实现了智能电源管理,根据电源状况有针对性地采取策略,大大节省了电能消耗。

ProLiant 电源调整仪(ProLiant Power Regulator)可实现服务器级、基于策略的电源管理。电源调整议可以根据CPU的应用情况为其提供电源,必要时,为CPU应用提供全功率,当不需要时则可使CPU处于节电模式,这使得服务器可以实现基于策略的电源管理。事实上可通过动态和静态两种方式来控制CPU的电源状态,即电源调整议即可以设置成连续低功耗的静态工作模式,也可以设置成根据CPU使用情况自动调整电源供应的动态模式。目前电源调整议可适用于AMD或英特尔的芯片,为方便使用,惠普可通过iLO高级接口显示处理器的使用数据并通过该窗口进行配置 *** 作。电源调整议使服务器在不损失性能的前提下节省了功率和散热成本。

惠普创新的动态功率调整技术(DPS, Dynamic Power Saver)可以实时监测机箱内的电源消耗,并根据需求自动调节电源的供应。由于电源在高负荷下运转才能发挥最大效力,通过提供与用户整体基础设施要求相匹的配电量, DPS进一步改进了耗电状况。例如,当服务器对电源的需求较少时,可以只启动一对供电模块,而使其它供电模块处于stand by状态,而不是开启所有的供电单元,但每个供电单元都以较低的效率运行。当对电源需求增加时,可及时启动STAND BY的供电模块,使之满足供电需求。这样确保了供电系统总是保持最高效的工作状态,同时确保充足的电力供应,但通过较低的供电负荷实现电力的节约。通过动态功率调整技术,每年20个功率为0075/千瓦时的机箱约节省5545美元。

结束语

传统数据中心与日俱增的能源开销备受关注,在过去十年中服务器供电费用翻番的同时,冷却系统也为数据中心的基础设施建设带来了空前的压力。为了解决节节攀升的热量与能源消耗的难题,惠普公司创新性地推出了新一代绿色刀片系统BladeSystem c-Class和基于动态智能制冷技术DSC的绿色数据中心解决方案,通过惠普创新的PARSEC体系架构、能量智控技术(Thermal Logic)以及Active Cool风扇等在供电及散热等部件方面的创新技术来降低能耗,根据数据中心的大小不同,这些技术可为数据中心节能达到20 %至45%。

(报告出品方/分析师:银河证券研究院 赵良毕)

报告原标题: 通信行业深度报告:ICT“双碳”新基建,IDC 温控新机遇

(一)算力建设关乎数字经济发展,各国均不断发力

加快培育数据要素市场,全球算力竞争不断提升。 2020 年 4 月 9 日,《中共中央、国务院关于构建更加完善的要素市场化配置体制机制的意见》中,数据首次作为一种新型生产要素在文件中出现,与土地、劳动力、资本和技术等传统要素并列。计算力已经与国家经济息息相关。

IDC&清华产业研究院联合发布的《2021-2022 全球计算力指数评估报告》表明,计算力是数字经济时代的关键生成要素:

(1)从 2016-2025 年的整体趋势及预测来看,各个国家的数字经济占 GDP 的比重持续提升,预计 2025 年占比将达到 415%。

(2)计算力作为数字经济时代的关键生产力要素,已经成为挖掘数据要素价值,推动数字经济发展的核心支撑力和驱动力。

(3)国家计算力指数与 GDP 的走势呈现出了显著的正相关。评估结果显示十五个重点国家的计算力指数平均每提高 1 点,国家的数字经济和 GDP 将分别增长 35%和 18%,预计该趋势在 2021-2025 年将继续保持。同时,通过针对不同梯队国家的计算力指数和 GDP 进行进一步的回归分析后,研究发现:当一个国家的计算力指数达到 40 分以上时,国家的计算力指数每提升 1 点,其对于 GDP 增长的推动力将增加到 15 倍,而当计算力指数达到 60 分以上时,国家的计算力指数每提升 1 点,其对于 GDP 增长的推动力将提高到 30 倍,对经济的拉动作用变得更加显著。

数字化进程不断推进,发展中国家经济增速较高。 根据 IDC 数据显示,2016 年到 2025 年,数字经济占比不断提升,全球数字经济占比2025E为41%,其中发达国家数字经济占比为4810%,比发展中国家高 178 个百分点。中美两国计算力指数综合评估较高,中国计算力发展水平涨幅达 135%,处于较高增长水平。总体来看,数字经济为各国 GDP 总量贡献不断提升,算力提升推动数字经济向好发展。

全球公有云用户市场保持增长,IT 侧资本开支不断增加。 云是推动企业数字化转型升级的重要驱动力, 企业不断增加对移动技术、协作以及其他远程工作技术和基础架构的投资。预计到 2023 年,用户支出将达到近 6000 亿美元,云将占全球企业 IT 消费市场的 142%。其中软件化服务(SaaS)是最大的细分市场,预计该市场在 2023E 用户支出增长至 208080 亿美元,相比 2021 年增长 3673%;云基础建设(IaaS)将达到 156276 亿美元,相比 2021 年增长 7053%。为了获得数字经济时代的比较优势,全球主要国家在数据中心的建设上进行了大规模投资,全球经济受到新冠疫情的严重影响下,数据中心的建设保持了较高增速,预计在未来几年云服务提供商与电信公司之间的合作日益增加,全球云市场有望进一步增长。

中国 IDC 市场规模增速较快,目前处于高速发展期。 受益于我国“新基建”战略提出和持续攀升的互联网流量,2021 年数据中心建设规模不断增长。根据中国信通院数据,我国 2021年 IDC 行业规模约 15002 亿元,近 5 年中国 IDC 市场年均复合增速约达 30%,领先于全球 IDC市场增速,其中近三年中国 IDC 市场具有高增速。我国 IDC 行业增速较快主要系我国 5G 建设持续推进,5G 应用项目多点开花不断落地,预计到 2025 年,我国数据中心市场规模达到 5952亿元。随着数字经济“东数西算”工程加速推进、互联网和云计算大客户需求不断扩张及数据中心在物联网、人工智能等领域的广泛应用,数据中心行业发展前景广阔,有望保持高速增长。

IDC 机柜数量不断增长,中国东部地区 IDC 中心较多。 2021 年 IDC 的机柜量增长了 9915万架,增速为 30%,机柜量总数达到 41506 万架,年度增长率达到 3139%。随着 5G 时代数字经济向 社会 各领域持续渗透,数据量爆炸式增长使得全 社会 对算力需求提升,预计每年仍将以20%以上速度高增,有望打开市场新空间。目前我国大部分数据中心集中在东部及沿海地区,根据 CDCC 数据,2021 年华东、华北、华南三地区机柜数占全国总数的 79%,而东北、西北地区占比相对较低。

我国东部地区 IDC 上架率较高,西部地区加速建设。 目前 IDC 机房在我国东西部呈现差异较大发展,体现东密西疏、东热西冷的特点。2021 年新增机柜对比可知,东部及沿海地区数据中心上架率高,西部上架率较低。2021 年华东、华北、华南三地上架率约 60%-70%,而东北、西北、西南及华中上架率仅有 30%-40%。在政策布局方面,国家不断推进数字经济发展,形成以数据为纽带的区域协调发展新格局。对于网络时延要求不高的业务,率先向西部转移建设,由于西部地区气温较低优势突出,实施“东数西算”有利于数据中心提高能效,西部地区产业跨越式发展,促进区域经济有效增长。

(二)数字经济政策护航,“东数西算”工程建设有望超预期

把握数字化发展机遇,拓展经济发展新空间。2022 年 1 月,国务院发布《“十四五”数字经济发展规划》,规划强调数字经济是继农业经济、工业经济之后的主要经济形态,是以数据资源为关键要素,以现代信息网络为主要载体,以信息通信技术融合应用、全要素数字化转型为重要推动力,促进公平与效率更加统一的新经济形态。同时,规划明确提出到 2025 年,数字经济迈向全面扩展期,数字经济核心产业增加值占 GDP 比重达到 10%。基于上述规划,2022年 5 月 26 日,工信部在 2022 年中国国际大数据产业博览会上指出,坚持适度超前建设数字基础设施,加快工业互联网、车联网等布局。

推进绿色数据中心建设,提升数据中心可再生能源利用率。 我国能源结构正处在不断优化的过程中,新能源地区分布不均衡,特别是水力、光伏、风能,主要集中在中西部地区,而使用端主要在东部沿海地区,虽然通过“西电东送”工程部分缓解了东部地区用电紧张问题,但是作为高耗能的数据中心产业,协调东西部发展布局、降低能耗就十分必要。全国各省市、地区相继出台了各种强调数据中心绿色、节能的政策要求,进而促进能源生产、运输、消费等各环节智能化升级,催化能源行业低碳转型。

东西部资源高效匹配,建立全国一体化协同创新体系。 “东数西算”工程是我国继“南水北调”、“西气东输”、“西电东送”之后的又一项重大的国家战略工程,将东部海量数据有序引导到西部,优化数据中心建设布局,缩小东西部经济差异,促进东西部协同发展。2022 年 2 月17 日,国家发改委、中央网信办、工业和信息化部、国家能源局联合印发通知,同意在京津冀、长三角、粤港澳大湾区、成渝、内蒙古、贵州、甘肃、宁夏等 8 地启动建设国家算力枢纽节点,并规划了 10 个国家数据中心集群。全国一体化大数据中心体系完成总体布局设计,“东数西算”工程正式全面启动。国家以“东数西算”为依托,持续推进数据中心与算力、云、网络、数据要素、数据应用和安全等协同发展,形成以数据为纽带的区域协调发展新格局,助力数字经济不断发展。

全球算力网络竞争力凸显,ICT 产业链有望迎来发展新空间。 通过全国一体化的数据中心布局建设,扩大算力设施规模,提高算力使用效率,实现全国算力规模化、集约化发展,有望进一步提升国家算力水平和全球竞争能力。同时,扩大数据中心在中西部地区覆盖,能够就近消纳中西部地区新型绿色能源,持续优化数据中心能源使用效率。通过算力枢纽和数据中心集群建设,将有力带动相关产业上下游投资,促进东西部数据流通、价值传递,延展东部发展空间,推进西部大开发形成全国均衡发展新格局。

(三)双碳减排目标明确,绿色节能成为发展必需

能源变革不断创新升级,低碳转型融入 社会 经济发展。 自上个世纪人类逐渐认识到碳排放造成的不利影响,各国政府和国际组织不断进行合作,经过不懈努力、广泛磋商,在联合国和世界气候大会的框架下达成了一系列重要共识,形成了《联合国气候变化框架公约》(1992 年签署,1994 年生效)、《京都议定书》(1997 年达成,2005 年生效)和《巴黎协定》(2015年达成,2016 年生效)等文件,其中《巴黎协定》规定了“把全球平均气温升幅控制在工业化前水平以上低于 2 以内”的基础目标和“将气温升幅限制在工业化前水平以上 15 之内”的努力目标。

推动能源革命,落实碳达峰行动方案。 为了达到《巴黎协定》所规定的目标,我国政府也提出了切合我国实际的双碳行动计划,2020 年 9 月 22 日,我国在第七十五届联合国大会上宣布,中国力争 2030 年前二氧化碳排放达到峰值,努力争取 2060 年前实现碳中和目标。中国的“双碳”目标正式确立,展现了中国政府应对全球气候变化问题上的决心和信心。同时 2021年度《政府工作报告》中指出:扎实做好碳达峰、碳中和各项工作,制定 2030 年前碳排放达峰行动方案。优化产业结构和能源结构。推动煤炭清洁高效利用,大力发展新能源,在确保安全的前提下积极有序发展核电。扩大环境保护、节能节水等企业所得税优惠目录范围,促进新型节能环保技术、装备和产品研发应用,培育壮大节能环保产业,推动资源节约高效利用。落实 2030 年应对气候变化国家自主贡献目标。加快发展方式绿色转型,协同推进经济高质量发展和生态环境高水平保护,单位国内生产总值能耗和二氧化碳排放分别降低 135%、18%。

聚焦数据中心低碳发展,实现双碳方式产业发展。 在双碳背景下,“东数西算”工程中数据中心西部迁移,PUE 值有望降低带来能耗电量高效利用。能源高效节能、革新升级已是大势所趋和必然要求。

(一)数据中心能耗突出,绿色节能是发展趋势

绿电成为发展趋势,低碳发展中发挥重要作用。 随着大力发展数据中心产业,数据中心能耗在国民经济中的占比也在不断提高。研究表明,预计 2025 年,数据中心能耗总量将达到 3952亿 kW·h,占全 社会 用电总量的 405%,比例逐年攀升。整体来看,由服务器、存储和网络通信设备等所构成的 IT 设备系统所产生的功耗约占数据中心总功耗的 45%。空调系统同样是数据中心提高能源效率的重点环节,所产生的功耗约占数据中心总功耗的 40%。降 PUE 将成为未来发展趋势,主要从制冷方面入手。

数据中心碳排放不断控制,PUE 值不断改善。 根据国家能源局 2020 年全国电力工业统计数据 6000 千瓦及以上电厂供电标准煤耗每度电用煤 3055 克,二氧化碳排放量按每吨标煤排放 27 吨二氧化碳来计算,2021 年全国数据中心二氧化碳排放量 7830 万吨,2030 年预计排放约 15 亿吨二氧化碳。

量化指标评估数据中心能源效率。 为评价数据中心的能效问题,目前广泛采用 PUE(Power Usage Effectiveness)作为重要的评价指标,指标是数据中心消耗的所有能源与 IT 负载消耗的能源的比值。PUE 通常以年度为计量区间,其中数据中心总能耗包括 IT 设备能耗和制冷、配电等系统的能耗,其值大于 1,越接近 1 表明非 IT 设备耗能越少,即能效水平越好。

数据中心空调系统及服务器系统能耗占比较大。 数据中心的耗能部分主要包括 IT 设备、制冷系统、供配电系统、照明系统及其他设施(包括安防设备、灭火、防水、传感器以及相关数据中心建筑的管理系统等)。整体来看,由服务器、存储和网络通信设备等所构成的 IT 设备系统所产生的功耗约占数据中心总功耗的 45%。其中服务器系统约占 50%,存储系统约占 35%,网络通信设备约占 15%。空调系统仍然是数据中心提高能源效率的重点环节,它所产生的功耗约占数据中心总功耗的 40%。电源系统和照明系统分别占数据中心总耗电量的 10%和 5%。

(三)温控系统持续优化,节能技术变革打开新机遇

温控系统多元化趋势,节能技术不断突破。 当前主流的制冷方式包括风冷、水冷、间接蒸发冷却和液冷技术,根据数据中心规模、环境特点选择合适的制冷技术。提高数据中心的能效,尤其是空调制冷系统的能效成为研究重点。目前,数据中心空调制冷能效比的提升主要从液冷和自然冷源两方面入手。从制冷方式来看,风冷将逐渐被安装灵活、效率更高的液冷方式所取代。液冷技术目前应用于 5G 场景,通常对骨干网 OTN 设备、承载网设备以及 5G BBU 设备进行液冷,采用液冷技术可以通过液体将发热元件热量带走,实现服务器的自然散热,相互传统制冷方法,液冷技术更为高效节能。

冷却系统不断优化。 为了客观评价这些制冷技术以便进一步提高节能减排效率,中国制冷学会数据中心冷却工作组研究认为:采用数据中心冷却系统综合性能系数(GCOP)作为评价指标更为合理。

其中,GCOP 为数据中心冷却系统综合性能系数指标,用于评价数据中心冷却系统的能效。为数据中心总能耗,其中不仅包括数据中心市电供电量,也包括数据中心配置的发电机的供电量。为制冷系统能耗,包括机房外制冷系统的能耗,另外包括 UPS 供电的制冷风扇、关键泵以及设备机柜内风扇等制冷设备产生的能耗。

实际情况中,为了使能效评价结果更具有说服力与可比较性。冷却工作组建议使用数据中心全年平均综合性能系统数的(GCOPA)指标和特定工况下数据中心冷却系统综合性能系数(GCOPS)作为评价标准。

冷却工作组根据上述标准针对来自内蒙古呼和浩特、广东深圳、河北廊坊等地的高效数据中心进行分析。这些数据中心分布在不同建筑气候区,使用了不同系统形式和运行策略,例如高效末端、自然冷却、AI 控制的运行优化等。数据表明西部地区建设新型数据中心制冷能耗较优。我国数据中心冷却系统能效存在极大差异,提升我国数据中心冷却系统的能效意义较大,冷却系统仍存在巨大的节能潜力。

数据中心容量不断扩充,中美两国贡献较多。 根据 Synergy Research Group 的最新数据显示,由大型供应商运营的大型数据中心数量已增至 700 家,而以关键 IT 负载衡量,美国占这些数据中心容量的 49%,中国是继美国之后对超大型数据中心容量贡献第二大的国家,占总量的 15%。其余的产能分布在亚太地区(13%)、EMEA 地区(19%)和加拿大/拉丁美洲(4%)。超大规模数据中心数量翻一番用了五年时间,但容量翻番用了不到四年时间。

空调系统建设成本较多。 根据IBM数据,数据中心的建设成本中空调系统的占比为167%。总体来说,2021 年数据中心基础设施设备总支出为 1850 亿美元,能源方面建设资本开支占较大份额,能源建设及利用效率有望进一步提升。

数据中心资本稳步增长,温控市场打开新空间。 根据 Synergy Research 的数据,2021年数据中心基础设施设备总支出(包括云/非云硬件和软件)为 1850 亿美元,公有云基础设施设备支出占比为 47%。面向硬件的服务器、存储和网络合计占数据中心基础设施市场的 77%。

*** 作系统、虚拟化软件、云管理和网络安全占了其余部分。参照 2021 年全球数据中心资本开支增长 10%的现实,假设未来 4 年数据中心每年资本开支保持增长 10%,我国数据中心温控系统市场规模 2021 年为 301 亿元,可在 2025 年达到 441 亿元。

(一)英维克:打造温控全产业链,行业高景气领跑者受益

国内技术领先的精密温控龙头,聚焦精密温控节能产品和解决方案。 公司自成立以来,一直专注于数据机房等精密环境控制技术的研发,致力于为云计算数据中心、通信网络、物联网的基础架构及各种专业环境控制领域提供解决方案,“东数西算”项目中提供节能技术。

公司营业收入高速增长,盈利能力表现良好。 2022Q1,公司实现营收 400 亿元,同比增长 1710%,归母净利润 013 亿元,同比下降 5926%,主要受原材料价格上涨、疫情反复等因素影响。2021 年英维克实现营业收入 2228 亿元,同比增长 2971%,自 2017 年以来 CAGR 达3465%,主要是由于机房温控一些大项目验收确认,以及机柜温控节能产品收入增长。受益于整个行业的景气度,全年实现归母净利润 205 亿元,同比增长 1286%,自 2017 年以来 CAGR达 2425%,主要源自数据中心及户外机柜空调业务的持续增长。

公司毛利率总体稳定,未来有望止跌回升。 2021 年公司销售毛利率为 2935%,同比下降950%,主要原因系上游原材料成本提升,公司整体盈利能力承压。净利率总体有所下降,销售净利率为 892%,同比下降 1585%。随着公司持续数据机房等精密环境控制技术的研发,技术平台得到复用,规模效应愈发显著,公司未来毛利率及净利率有望企稳回升。

蒸发冷却、液冷技术为未来发展趋势,公司技术储备充足,产品系列覆盖全面。 目前国内数据中心温控方式仍然以风冷、冷冻水为主,由于热密度、耗能的提升,传统方案已经不能满足市场需求,散热方式逐渐从传统风冷模式发展到背板空调、液冷等新型散热方式,数据中心冷却系统呈现出冷却设备贴近服务器、核心发热设备的趋势,液冷、蒸发冷却技术优势明显。

研发投入持续增加提升核心竞争力,温控系统不断优化。 公司以技术创新作为企业发展的主要驱动力,不断加大研发投入。虽然受到上游原材料价格急速上涨和疫情反复的不利影响,公司始终坚持加大研发力度,为公司后续发展提供技术支撑。英维克作为细分行业龙头,及时捕捉市场发展动向,以技术创新作为企业发展的主要驱动力。

公司产品线丰富,方案灵活凸显竞争优势。 英维克的机房温控节能产品主要针对数据中心、服务器机房、通信机房、高精度实验室等领域的房间级专用温控节能解决方案,用于对设备机房或实验室空间的精密温湿度和洁净度的控制调节。其中包括 CyberMate 机房专用空调&实验室专用空调、iFreecooling 多联式泵循环自然冷却机组、XRow 列间空调、XFlex 模块化间接蒸发冷却机组、XStorm 直接蒸发式高效风墙冷却系统、XSpace 微模块数据中心、XRack 微模块机柜解决方案、XGlacier 液冷温控系统等产品与解决方案。

公司的产品直接或通过系统集成商提供给数据中心业主、IDC 运营商、大型互联网公司,历年来公司已为腾讯、阿里巴巴、秦淮数据、万国数据、数据港、中国移动、中国电信、中国联通等用户的大型数据中心提供了大量高效节能的制冷产品及系统。此外,英维克还提供机柜温控节能产品主要针对无线通信基站、储能电站、智能电网各级输配电设备柜、电动 汽车 充电桩、ETC 门架系统等户外机柜或集装箱的应用场合提供温控节能解决方案,以及用于智能制造设备的机柜温控产品。

(二)佳力图:运营商市场企稳互联网市场突破,业绩有望边际改善

精密环境温控龙头,打造恒温恒湿解决方案。 公司产品应用于数据中心机房、通信基站以及其他恒温恒湿等精密环境,公司客户涵盖政府部门以及通信、金融、互联网、医疗、轨道交通、航空、能源等众多行业。公司产品服务于中国电信、中国联通、中国移动、华为等知名企业。目前,公司拥有精密空调设备、冷水机组两大类产品,十三个系列产品线,产品的先进性、可靠性以及节能环保的优势在行业中始终保持主导地位,同时公司依托在环境控制技术和节能技术方面的优势,为数据中心提供节能改造服务。

公司营业收入保持增长,净利润有所下滑。2022Q1,公司实现营收 122 亿元,同比下降1069%,归母净利润 014 亿元,同比下降 3668%,主要受原材料价格上涨、疫情反复、竞争加剧等因素影响。

2021 年佳力图实现营业收入 667 亿元,同比增长 668%,自 2017 年以来CAGR 达 973%,全年实现归母净利润 085 亿元,同比下滑 2635%,2021 年,公司主要是受到以下因素影响导致利润下滑,(1)南京疫情停工待产、限电限产、疫情延时交付验收的各种困难;(2)随着市场规模的不断扩大,国内机房空调市场竞争较激烈;(3)原材料价格特别是大宗商品价格持续上涨,原材料成本占公司营业成本平均比例达 70%以上,是公司产品成本的主要组成部分,铜、镀锌钢板在 2021 年度一直呈现上涨趋势,采购价格较 2020 年上涨了 20%-40%,导致公司成本呈现大比例增长。

图 17 公司受多因素影响毛利率有所下降(单位:%)

公司精密环境领域产品丰富,技术先进。 公司产品应用于数据中心机房、通信基站以及其他恒温恒湿等精密环境,公司客户涵盖政府部门以及通信、金融、互联网、医疗、轨道交通、航空、能源等众多行业。公司产品服务于中国电信、中国联通、中国移动、华为等知名企业。

目前,公司拥有精密空调设备、冷水机组两大类产品,十三个系列产品线,产品的先进性、可靠性以及节能环保的优势在行业中始终保持主导地位,同时公司依托在环境控制技术和节能技术方面的优势,为数据中心提供节能改造服务。

研发投入不断投入,空调效率持续提升。 虽然受到上游原材料价格急速上涨和疫情反复的不利影响,公司始终保持加强技术研发团队建设,加强与高等院校、行业专家等机构、人士的合作,推动尖端理论研究和实践,依托现有的研发体系,充分发挥节能控制方面的技术优势,加快机房智能节能管理系统的研制,进一步提高公司产品的性能指标,加强在空调换热器效率提升、供配电技术方面的基础性研究实力,全面提升公司在机房环境控制一体化解决方案方面的创新能力。

公司核心技术不断凸显。 2021 年末公司拥有的核心技术有 36 项,同时有包含带封闭式高效冷却循环的通信模块、数据中心冷冻站集中控制系统、机房空调 VRF 系统、CPU 液冷技术、VRF 技术在机房空调领域的初级应用等 28 项在研项目。

(三)其他节能相关公司情况

申菱环境是国内提供人工环境调控整体解决方案的领先企业,服务场景数值中心、电力、化工、能源、轨道交通、环保、军工等领域。产品主要可分为数据服务空调、工业空调、特种空调三部分。公司是华为数据服务空调的主要供应商,与华为存在多年合作关系。除了华为业务的快速增长,也获得了腾讯等互联网龙头企业的认可。此外,申菱环境在储能方面也有布局。

依米康致力于在通信机房、数据中心、智慧建设以及能源管理领域为客户提供产品和整体解决方案,包括从硬件到软件,从室内精密空调到室外磁悬浮主机,从一体机和微模块到大型数据中心的设计、生产和运维服务,助力客户面对能源和生态挑战。公司信息数据领域的关键设备、智能工程、物联软件、智慧服务四大板块业务均可为数据中心产业链提供产品及服务。

高澜股份是国内领先的纯水冷却设备专业供应商,是国家级专精特新“小巨人”企业,从大功率电力电子装置用纯水冷却设备及控制系统起家,产品广泛应用于发电、输电、配电及用电各个环节电力电子装置。2020 年以来,通过企业并购,其新能源 汽车 业务收入大幅提升,动力电池热管理产品、新能源 汽车 电子制造产品收入占总营收比重均大幅上涨,合计收入占总营收比重达到 4888%,首次超过纯水冷却设备成为公司第一大收入来源。

节能技术突破不及预期导致供给端产能释放缓;

原材料短缺及价格上涨;

市场竞争加剧;

下游数据中心市场增速不及预期。

以上就是关于数据中心wue是什么意思全部的内容,包括:数据中心wue是什么意思、网络机房设备基础知识、如何提高PUE值 数据中心能耗详解等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/langs/8862557.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-04-22
下一篇 2023-04-22

发表评论

登录后才能评论

评论列表(0条)

保存