全球算力竞争加剧,我国 ICT 建设驶入快车道

全球算力竞争加剧,我国 ICT 建设驶入快车道,第1张

(报告出品方/分析师:银河证券研究院 赵良毕)

报告原标题: 通信行业深度报告:ICT“双碳”新基建,IDC 温控新机遇

(一)算力建设关乎数字经济发展,各国均不断发力

加快培育数据要素市场,全球算力竞争不断提升。 2020 年 4 月 9 日,《中共中央、国务院关于构建更加完善的要素市场化配置体制机制的意见》中,数据首次作为一种新型生产要素在文件中出现,与土地、劳动力、资本和技术等传统要素并列。计算力已经与国家经济息息相关。

IDC&清华产业研究院联合发布的《2021-2022 全球计算力指数评估报告》表明,计算力是数字经济时代的关键生成要素:

(1)从 2016-2025 年的整体趋势及预测来看,各个国家的数字经济占 GDP 的比重持续提升,预计 2025 年占比将达到 415%。

(2)计算力作为数字经济时代的关键生产力要素,已经成为挖掘数据要素价值,推动数字经济发展的核心支撑力和驱动力。

(3)国家计算力指数与 GDP 的走势呈现出了显著的正相关。评估结果显示十五个重点国家的计算力指数平均每提高 1 点,国家的数字经济和 GDP 将分别增长 35%和 18%,预计该趋势在 2021-2025 年将继续保持。同时,通过针对不同梯队国家的计算力指数和 GDP 进行进一步的回归分析后,研究发现:当一个国家的计算力指数达到 40 分以上时,国家的计算力指数每提升 1 点,其对于 GDP 增长的推动力将增加到 15 倍,而当计算力指数达到 60 分以上时,国家的计算力指数每提升 1 点,其对于 GDP 增长的推动力将提高到 30 倍,对经济的拉动作用变得更加显著。

数字化进程不断推进,发展中国家经济增速较高。 根据 IDC 数据显示,2016 年到 2025 年,数字经济占比不断提升,全球数字经济占比2025E为41%,其中发达国家数字经济占比为4810%,比发展中国家高 178 个百分点。中美两国计算力指数综合评估较高,中国计算力发展水平涨幅达 135%,处于较高增长水平。总体来看,数字经济为各国 GDP 总量贡献不断提升,算力提升推动数字经济向好发展。

全球公有云用户市场保持增长,IT 侧资本开支不断增加。 云是推动企业数字化转型升级的重要驱动力, 企业不断增加对移动技术、协作以及其他远程工作技术和基础架构的投资。预计到 2023 年,用户支出将达到近 6000 亿美元,云将占全球企业 IT 消费市场的 142%。其中软件化服务(SaaS)是最大的细分市场,预计该市场在 2023E 用户支出增长至 208080 亿美元,相比 2021 年增长 3673%;云基础建设(IaaS)将达到 156276 亿美元,相比 2021 年增长 7053%。为了获得数字经济时代的比较优势,全球主要国家在数据中心的建设上进行了大规模投资,全球经济受到新冠疫情的严重影响下,数据中心的建设保持了较高增速,预计在未来几年云服务提供商与电信公司之间的合作日益增加,全球云市场有望进一步增长。

中国 IDC 市场规模增速较快,目前处于高速发展期。 受益于我国“新基建”战略提出和持续攀升的互联网流量,2021 年数据中心建设规模不断增长。根据中国信通院数据,我国 2021年 IDC 行业规模约 15002 亿元,近 5 年中国 IDC 市场年均复合增速约达 30%,领先于全球 IDC市场增速,其中近三年中国 IDC 市场具有高增速。我国 IDC 行业增速较快主要系我国 5G 建设持续推进,5G 应用项目多点开花不断落地,预计到 2025 年,我国数据中心市场规模达到 5952亿元。随着数字经济“东数西算”工程加速推进、互联网和云计算大客户需求不断扩张及数据中心在物联网、人工智能等领域的广泛应用,数据中心行业发展前景广阔,有望保持高速增长。

IDC 机柜数量不断增长,中国东部地区 IDC 中心较多。 2021 年 IDC 的机柜量增长了 9915万架,增速为 30%,机柜量总数达到 41506 万架,年度增长率达到 3139%。随着 5G 时代数字经济向 社会 各领域持续渗透,数据量爆炸式增长使得全 社会 对算力需求提升,预计每年仍将以20%以上速度高增,有望打开市场新空间。目前我国大部分数据中心集中在东部及沿海地区,根据 CDCC 数据,2021 年华东、华北、华南三地区机柜数占全国总数的 79%,而东北、西北地区占比相对较低。

我国东部地区 IDC 上架率较高,西部地区加速建设。 目前 IDC 机房在我国东西部呈现差异较大发展,体现东密西疏、东热西冷的特点。2021 年新增机柜对比可知,东部及沿海地区数据中心上架率高,西部上架率较低。2021 年华东、华北、华南三地上架率约 60%-70%,而东北、西北、西南及华中上架率仅有 30%-40%。在政策布局方面,国家不断推进数字经济发展,形成以数据为纽带的区域协调发展新格局。对于网络时延要求不高的业务,率先向西部转移建设,由于西部地区气温较低优势突出,实施“东数西算”有利于数据中心提高能效,西部地区产业跨越式发展,促进区域经济有效增长。

(二)数字经济政策护航,“东数西算”工程建设有望超预期

把握数字化发展机遇,拓展经济发展新空间。2022 年 1 月,国务院发布《“十四五”数字经济发展规划》,规划强调数字经济是继农业经济、工业经济之后的主要经济形态,是以数据资源为关键要素,以现代信息网络为主要载体,以信息通信技术融合应用、全要素数字化转型为重要推动力,促进公平与效率更加统一的新经济形态。同时,规划明确提出到 2025 年,数字经济迈向全面扩展期,数字经济核心产业增加值占 GDP 比重达到 10%。基于上述规划,2022年 5 月 26 日,工信部在 2022 年中国国际大数据产业博览会上指出,坚持适度超前建设数字基础设施,加快工业互联网、车联网等布局。

推进绿色数据中心建设,提升数据中心可再生能源利用率。 我国能源结构正处在不断优化的过程中,新能源地区分布不均衡,特别是水力、光伏、风能,主要集中在中西部地区,而使用端主要在东部沿海地区,虽然通过“西电东送”工程部分缓解了东部地区用电紧张问题,但是作为高耗能的数据中心产业,协调东西部发展布局、降低能耗就十分必要。全国各省市、地区相继出台了各种强调数据中心绿色、节能的政策要求,进而促进能源生产、运输、消费等各环节智能化升级,催化能源行业低碳转型。

东西部资源高效匹配,建立全国一体化协同创新体系。 “东数西算”工程是我国继“南水北调”、“西气东输”、“西电东送”之后的又一项重大的国家战略工程,将东部海量数据有序引导到西部,优化数据中心建设布局,缩小东西部经济差异,促进东西部协同发展。2022 年 2 月17 日,国家发改委、中央网信办、工业和信息化部、国家能源局联合印发通知,同意在京津冀、长三角、粤港澳大湾区、成渝、内蒙古、贵州、甘肃、宁夏等 8 地启动建设国家算力枢纽节点,并规划了 10 个国家数据中心集群。全国一体化大数据中心体系完成总体布局设计,“东数西算”工程正式全面启动。国家以“东数西算”为依托,持续推进数据中心与算力、云、网络、数据要素、数据应用和安全等协同发展,形成以数据为纽带的区域协调发展新格局,助力数字经济不断发展。

全球算力网络竞争力凸显,ICT 产业链有望迎来发展新空间。 通过全国一体化的数据中心布局建设,扩大算力设施规模,提高算力使用效率,实现全国算力规模化、集约化发展,有望进一步提升国家算力水平和全球竞争能力。同时,扩大数据中心在中西部地区覆盖,能够就近消纳中西部地区新型绿色能源,持续优化数据中心能源使用效率。通过算力枢纽和数据中心集群建设,将有力带动相关产业上下游投资,促进东西部数据流通、价值传递,延展东部发展空间,推进西部大开发形成全国均衡发展新格局。

(三)双碳减排目标明确,绿色节能成为发展必需

能源变革不断创新升级,低碳转型融入 社会 经济发展。 自上个世纪人类逐渐认识到碳排放造成的不利影响,各国政府和国际组织不断进行合作,经过不懈努力、广泛磋商,在联合国和世界气候大会的框架下达成了一系列重要共识,形成了《联合国气候变化框架公约》(1992 年签署,1994 年生效)、《京都议定书》(1997 年达成,2005 年生效)和《巴黎协定》(2015年达成,2016 年生效)等文件,其中《巴黎协定》规定了“把全球平均气温升幅控制在工业化前水平以上低于 2 以内”的基础目标和“将气温升幅限制在工业化前水平以上 15 之内”的努力目标。

推动能源革命,落实碳达峰行动方案。 为了达到《巴黎协定》所规定的目标,我国政府也提出了切合我国实际的双碳行动计划,2020 年 9 月 22 日,我国在第七十五届联合国大会上宣布,中国力争 2030 年前二氧化碳排放达到峰值,努力争取 2060 年前实现碳中和目标。中国的“双碳”目标正式确立,展现了中国政府应对全球气候变化问题上的决心和信心。同时 2021年度《政府工作报告》中指出:扎实做好碳达峰、碳中和各项工作,制定 2030 年前碳排放达峰行动方案。优化产业结构和能源结构。推动煤炭清洁高效利用,大力发展新能源,在确保安全的前提下积极有序发展核电。扩大环境保护、节能节水等企业所得税优惠目录范围,促进新型节能环保技术、装备和产品研发应用,培育壮大节能环保产业,推动资源节约高效利用。落实 2030 年应对气候变化国家自主贡献目标。加快发展方式绿色转型,协同推进经济高质量发展和生态环境高水平保护,单位国内生产总值能耗和二氧化碳排放分别降低 135%、18%。

聚焦数据中心低碳发展,实现双碳方式产业发展。 在双碳背景下,“东数西算”工程中数据中心西部迁移,PUE 值有望降低带来能耗电量高效利用。能源高效节能、革新升级已是大势所趋和必然要求。

(一)数据中心能耗突出,绿色节能是发展趋势

绿电成为发展趋势,低碳发展中发挥重要作用。 随着大力发展数据中心产业,数据中心能耗在国民经济中的占比也在不断提高。研究表明,预计 2025 年,数据中心能耗总量将达到 3952亿 kW·h,占全 社会 用电总量的 405%,比例逐年攀升。整体来看,由服务器、存储和网络通信设备等所构成的 IT 设备系统所产生的功耗约占数据中心总功耗的 45%。空调系统同样是数据中心提高能源效率的重点环节,所产生的功耗约占数据中心总功耗的 40%。降 PUE 将成为未来发展趋势,主要从制冷方面入手。

数据中心碳排放不断控制,PUE 值不断改善。 根据国家能源局 2020 年全国电力工业统计数据 6000 千瓦及以上电厂供电标准煤耗每度电用煤 3055 克,二氧化碳排放量按每吨标煤排放 27 吨二氧化碳来计算,2021 年全国数据中心二氧化碳排放量 7830 万吨,2030 年预计排放约 15 亿吨二氧化碳。

量化指标评估数据中心能源效率。 为评价数据中心的能效问题,目前广泛采用 PUE(Power Usage Effectiveness)作为重要的评价指标,指标是数据中心消耗的所有能源与 IT 负载消耗的能源的比值。PUE 通常以年度为计量区间,其中数据中心总能耗包括 IT 设备能耗和制冷、配电等系统的能耗,其值大于 1,越接近 1 表明非 IT 设备耗能越少,即能效水平越好。

数据中心空调系统及服务器系统能耗占比较大。 数据中心的耗能部分主要包括 IT 设备、制冷系统、供配电系统、照明系统及其他设施(包括安防设备、灭火、防水、传感器以及相关数据中心建筑的管理系统等)。整体来看,由服务器、存储和网络通信设备等所构成的 IT 设备系统所产生的功耗约占数据中心总功耗的 45%。其中服务器系统约占 50%,存储系统约占 35%,网络通信设备约占 15%。空调系统仍然是数据中心提高能源效率的重点环节,它所产生的功耗约占数据中心总功耗的 40%。电源系统和照明系统分别占数据中心总耗电量的 10%和 5%。

(三)温控系统持续优化,节能技术变革打开新机遇

温控系统多元化趋势,节能技术不断突破。 当前主流的制冷方式包括风冷、水冷、间接蒸发冷却和液冷技术,根据数据中心规模、环境特点选择合适的制冷技术。提高数据中心的能效,尤其是空调制冷系统的能效成为研究重点。目前,数据中心空调制冷能效比的提升主要从液冷和自然冷源两方面入手。从制冷方式来看,风冷将逐渐被安装灵活、效率更高的液冷方式所取代。液冷技术目前应用于 5G 场景,通常对骨干网 OTN 设备、承载网设备以及 5G BBU 设备进行液冷,采用液冷技术可以通过液体将发热元件热量带走,实现服务器的自然散热,相互传统制冷方法,液冷技术更为高效节能。

冷却系统不断优化。 为了客观评价这些制冷技术以便进一步提高节能减排效率,中国制冷学会数据中心冷却工作组研究认为:采用数据中心冷却系统综合性能系数(GCOP)作为评价指标更为合理。

其中,GCOP 为数据中心冷却系统综合性能系数指标,用于评价数据中心冷却系统的能效。为数据中心总能耗,其中不仅包括数据中心市电供电量,也包括数据中心配置的发电机的供电量。为制冷系统能耗,包括机房外制冷系统的能耗,另外包括 UPS 供电的制冷风扇、关键泵以及设备机柜内风扇等制冷设备产生的能耗。

实际情况中,为了使能效评价结果更具有说服力与可比较性。冷却工作组建议使用数据中心全年平均综合性能系统数的(GCOPA)指标和特定工况下数据中心冷却系统综合性能系数(GCOPS)作为评价标准。

冷却工作组根据上述标准针对来自内蒙古呼和浩特、广东深圳、河北廊坊等地的高效数据中心进行分析。这些数据中心分布在不同建筑气候区,使用了不同系统形式和运行策略,例如高效末端、自然冷却、AI 控制的运行优化等。数据表明西部地区建设新型数据中心制冷能耗较优。我国数据中心冷却系统能效存在极大差异,提升我国数据中心冷却系统的能效意义较大,冷却系统仍存在巨大的节能潜力。

数据中心容量不断扩充,中美两国贡献较多。 根据 Synergy Research Group 的最新数据显示,由大型供应商运营的大型数据中心数量已增至 700 家,而以关键 IT 负载衡量,美国占这些数据中心容量的 49%,中国是继美国之后对超大型数据中心容量贡献第二大的国家,占总量的 15%。其余的产能分布在亚太地区(13%)、EMEA 地区(19%)和加拿大/拉丁美洲(4%)。超大规模数据中心数量翻一番用了五年时间,但容量翻番用了不到四年时间。

空调系统建设成本较多。 根据IBM数据,数据中心的建设成本中空调系统的占比为167%。总体来说,2021 年数据中心基础设施设备总支出为 1850 亿美元,能源方面建设资本开支占较大份额,能源建设及利用效率有望进一步提升。

数据中心资本稳步增长,温控市场打开新空间。 根据 Synergy Research 的数据,2021年数据中心基础设施设备总支出(包括云/非云硬件和软件)为 1850 亿美元,公有云基础设施设备支出占比为 47%。面向硬件的服务器、存储和网络合计占数据中心基础设施市场的 77%。

*** 作系统、虚拟化软件、云管理和网络安全占了其余部分。参照 2021 年全球数据中心资本开支增长 10%的现实,假设未来 4 年数据中心每年资本开支保持增长 10%,我国数据中心温控系统市场规模 2021 年为 301 亿元,可在 2025 年达到 441 亿元。

(一)英维克:打造温控全产业链,行业高景气领跑者受益

国内技术领先的精密温控龙头,聚焦精密温控节能产品和解决方案。 公司自成立以来,一直专注于数据机房等精密环境控制技术的研发,致力于为云计算数据中心、通信网络、物联网的基础架构及各种专业环境控制领域提供解决方案,“东数西算”项目中提供节能技术。

公司营业收入高速增长,盈利能力表现良好。 2022Q1,公司实现营收 400 亿元,同比增长 1710%,归母净利润 013 亿元,同比下降 5926%,主要受原材料价格上涨、疫情反复等因素影响。2021 年英维克实现营业收入 2228 亿元,同比增长 2971%,自 2017 年以来 CAGR 达3465%,主要是由于机房温控一些大项目验收确认,以及机柜温控节能产品收入增长。受益于整个行业的景气度,全年实现归母净利润 205 亿元,同比增长 1286%,自 2017 年以来 CAGR达 2425%,主要源自数据中心及户外机柜空调业务的持续增长。

公司毛利率总体稳定,未来有望止跌回升。 2021 年公司销售毛利率为 2935%,同比下降950%,主要原因系上游原材料成本提升,公司整体盈利能力承压。净利率总体有所下降,销售净利率为 892%,同比下降 1585%。随着公司持续数据机房等精密环境控制技术的研发,技术平台得到复用,规模效应愈发显著,公司未来毛利率及净利率有望企稳回升。

蒸发冷却、液冷技术为未来发展趋势,公司技术储备充足,产品系列覆盖全面。 目前国内数据中心温控方式仍然以风冷、冷冻水为主,由于热密度、耗能的提升,传统方案已经不能满足市场需求,散热方式逐渐从传统风冷模式发展到背板空调、液冷等新型散热方式,数据中心冷却系统呈现出冷却设备贴近服务器、核心发热设备的趋势,液冷、蒸发冷却技术优势明显。

研发投入持续增加提升核心竞争力,温控系统不断优化。 公司以技术创新作为企业发展的主要驱动力,不断加大研发投入。虽然受到上游原材料价格急速上涨和疫情反复的不利影响,公司始终坚持加大研发力度,为公司后续发展提供技术支撑。英维克作为细分行业龙头,及时捕捉市场发展动向,以技术创新作为企业发展的主要驱动力。

公司产品线丰富,方案灵活凸显竞争优势。 英维克的机房温控节能产品主要针对数据中心、服务器机房、通信机房、高精度实验室等领域的房间级专用温控节能解决方案,用于对设备机房或实验室空间的精密温湿度和洁净度的控制调节。其中包括 CyberMate 机房专用空调&实验室专用空调、iFreecooling 多联式泵循环自然冷却机组、XRow 列间空调、XFlex 模块化间接蒸发冷却机组、XStorm 直接蒸发式高效风墙冷却系统、XSpace 微模块数据中心、XRack 微模块机柜解决方案、XGlacier 液冷温控系统等产品与解决方案。

公司的产品直接或通过系统集成商提供给数据中心业主、IDC 运营商、大型互联网公司,历年来公司已为腾讯、阿里巴巴、秦淮数据、万国数据、数据港、中国移动、中国电信、中国联通等用户的大型数据中心提供了大量高效节能的制冷产品及系统。此外,英维克还提供机柜温控节能产品主要针对无线通信基站、储能电站、智能电网各级输配电设备柜、电动 汽车 充电桩、ETC 门架系统等户外机柜或集装箱的应用场合提供温控节能解决方案,以及用于智能制造设备的机柜温控产品。

(二)佳力图:运营商市场企稳互联网市场突破,业绩有望边际改善

精密环境温控龙头,打造恒温恒湿解决方案。 公司产品应用于数据中心机房、通信基站以及其他恒温恒湿等精密环境,公司客户涵盖政府部门以及通信、金融、互联网、医疗、轨道交通、航空、能源等众多行业。公司产品服务于中国电信、中国联通、中国移动、华为等知名企业。目前,公司拥有精密空调设备、冷水机组两大类产品,十三个系列产品线,产品的先进性、可靠性以及节能环保的优势在行业中始终保持主导地位,同时公司依托在环境控制技术和节能技术方面的优势,为数据中心提供节能改造服务。

公司营业收入保持增长,净利润有所下滑。2022Q1,公司实现营收 122 亿元,同比下降1069%,归母净利润 014 亿元,同比下降 3668%,主要受原材料价格上涨、疫情反复、竞争加剧等因素影响。

2021 年佳力图实现营业收入 667 亿元,同比增长 668%,自 2017 年以来CAGR 达 973%,全年实现归母净利润 085 亿元,同比下滑 2635%,2021 年,公司主要是受到以下因素影响导致利润下滑,(1)南京疫情停工待产、限电限产、疫情延时交付验收的各种困难;(2)随着市场规模的不断扩大,国内机房空调市场竞争较激烈;(3)原材料价格特别是大宗商品价格持续上涨,原材料成本占公司营业成本平均比例达 70%以上,是公司产品成本的主要组成部分,铜、镀锌钢板在 2021 年度一直呈现上涨趋势,采购价格较 2020 年上涨了 20%-40%,导致公司成本呈现大比例增长。

图 17 公司受多因素影响毛利率有所下降(单位:%)

公司精密环境领域产品丰富,技术先进。 公司产品应用于数据中心机房、通信基站以及其他恒温恒湿等精密环境,公司客户涵盖政府部门以及通信、金融、互联网、医疗、轨道交通、航空、能源等众多行业。公司产品服务于中国电信、中国联通、中国移动、华为等知名企业。

目前,公司拥有精密空调设备、冷水机组两大类产品,十三个系列产品线,产品的先进性、可靠性以及节能环保的优势在行业中始终保持主导地位,同时公司依托在环境控制技术和节能技术方面的优势,为数据中心提供节能改造服务。

研发投入不断投入,空调效率持续提升。 虽然受到上游原材料价格急速上涨和疫情反复的不利影响,公司始终保持加强技术研发团队建设,加强与高等院校、行业专家等机构、人士的合作,推动尖端理论研究和实践,依托现有的研发体系,充分发挥节能控制方面的技术优势,加快机房智能节能管理系统的研制,进一步提高公司产品的性能指标,加强在空调换热器效率提升、供配电技术方面的基础性研究实力,全面提升公司在机房环境控制一体化解决方案方面的创新能力。

公司核心技术不断凸显。 2021 年末公司拥有的核心技术有 36 项,同时有包含带封闭式高效冷却循环的通信模块、数据中心冷冻站集中控制系统、机房空调 VRF 系统、CPU 液冷技术、VRF 技术在机房空调领域的初级应用等 28 项在研项目。

(三)其他节能相关公司情况

申菱环境是国内提供人工环境调控整体解决方案的领先企业,服务场景数值中心、电力、化工、能源、轨道交通、环保、军工等领域。产品主要可分为数据服务空调、工业空调、特种空调三部分。公司是华为数据服务空调的主要供应商,与华为存在多年合作关系。除了华为业务的快速增长,也获得了腾讯等互联网龙头企业的认可。此外,申菱环境在储能方面也有布局。

依米康致力于在通信机房、数据中心、智慧建设以及能源管理领域为客户提供产品和整体解决方案,包括从硬件到软件,从室内精密空调到室外磁悬浮主机,从一体机和微模块到大型数据中心的设计、生产和运维服务,助力客户面对能源和生态挑战。公司信息数据领域的关键设备、智能工程、物联软件、智慧服务四大板块业务均可为数据中心产业链提供产品及服务。

高澜股份是国内领先的纯水冷却设备专业供应商,是国家级专精特新“小巨人”企业,从大功率电力电子装置用纯水冷却设备及控制系统起家,产品广泛应用于发电、输电、配电及用电各个环节电力电子装置。2020 年以来,通过企业并购,其新能源 汽车 业务收入大幅提升,动力电池热管理产品、新能源 汽车 电子制造产品收入占总营收比重均大幅上涨,合计收入占总营收比重达到 4888%,首次超过纯水冷却设备成为公司第一大收入来源。

节能技术突破不及预期导致供给端产能释放缓;

原材料短缺及价格上涨;

市场竞争加剧;

下游数据中心市场增速不及预期。

世界能源委员会1995年对能源效率的定义为:减少提供同等能源服务的能源投入。对于能耗居高不下的数据中心,研究提高能源效率具有深远的社会效益和经济效益。除了能源效率之外,数据中心还有多项其他性能指标,按照国际标准组织ISO的定义统称为关键性能指标,或称为关键绩效指标,研究这些指标对于数据中心同样具有十分重要的意义。

在已经颁布的数据中心性能指标中最常见的是电能使用效率PUE。在我国,PUE不但是数据中心研究、设计、设备制造、建设和运维人员最为熟悉的数据中心能源效率指标,也是政府评价数据中心工程性能的主要指标。

除了PUE之外,2007年以后还出台了多项性能指标,虽然知名度远不及PUE,但是在评定数据中心的性能方面也有一定的参考价值,值得关注和研究。PUE在国际上一直是众说纷纭、莫衷一是的一项指标,2015年ASHRAE公开宣布,ASHRAE标准今后不再采用PUE这一指标,并于2016年下半年颁布了ASHRAE 904标准,提出了新的能源效率;绿色网格组织(TGG)也相继推出了新的能源性能指标。对PUE和数据中心性能指标的讨论一直是国际数据中心界的热门议题。

鉴于性能指标对于数据中心的重要性、国内与国际在这方面存在的差距,以及在采用PUE指标过程中存在的问题,有必要对数据中心的各项性能指标,尤其是对PUE进行深入地研究和讨论。

1.性能指标

ISO给出的关键性能指标的定义为:表示资源使用效率值或是给定系统的效率。数据中心的性能指标从2007年开始受到了世界各国的高度重视,相继推出了数十个性能指标。2015年之后,数据中心性能指标出现了较大变化,一系列新的性能指标相继被推出,再度引发了国际数据中心界对数据中心的性能指标,尤其是对能源效率的关注,并展开了广泛的讨论。

2.PUE

21PUE和衍生效率的定义和计算方法

211电能使用效率PUE

TGG和ASHRAE给出的PUE的定义相同:数据中心总能耗Et与IT设备能耗之比。

GB/T329103—2016给出的EEUE的定义为:数据中心总电能消耗与信息设备电能消耗之间的比值。其定义与PUE相同,不同的是把国际上通用的PUE(powerusage effectiveness)改成了EEUE(electricenergy usage effectiveness)。国内IT界和暖通空调界不少专业人士对于这一变更提出了不同的看法,根据Malone等人最初对PUE的定义,Et应为市电公用电表所测量的设备总功率,这里的Et就是通常所说的数据中心总的设备耗电量,与GB/T329103—2016所规定的Et应为采用电能计量仪表测量的数据中心总电能消耗的说法相同。笔者曾向ASHRAE有关权威人士咨询过,他们认为如果要将“power”用“electricenergy”来替代,则采用“electricenergy consumption”(耗电量)更准确。显然这一变更不利于国际交流。虽然这只是一个英文缩写词的变更,但因为涉及到专业术语,值得商榷。

ISO给出的PUE的定义略有不同:计算、测量和评估在同一时期数据中心总能耗与IT设备能耗之比。

212部分电能使用效率pPUE

TGG和ASHRAE给出的pPUE的定义相同:某区间内数据中心总能耗与该区间内IT设备能耗之比。

区间(zone)或范围( boundary)可以是实体,如集装箱、房间、模块或建筑物,也可以是逻辑上的边界,如设备,或对数据中心有意义的边界。

ISO给出的pPUE的定义有所不同:某子系统内数据中心总能耗与IT设备总能耗之比。这里的“子系统”是指数据中心中某一部分耗能的基础设施组件,而且其能源效率是需要统计的,目前数据中心中典型的子系统是配电系统、网络设备和供冷系统。

213设计电能使用效率dPUE

ASHRAE之所以在其标准中去除了PUE指标,其中一个主要原因是ASHRAE认为PUE不适合在数据中心设计阶段使用。为此ISO给出了设计电能使用效率dPUE,其定义为:由数据中心设计目标确定的预期PUE。

数据中心的能源效率可以根据以下条件在设计阶段加以预测:1)用户增长情况和期望值;2)能耗增加或减少的时间表。dPUE表示由设计人员定义的以最佳运行模式为基础的能耗目标,应考虑到由于数据中心所处地理位置不同而导致的气象参数(室外干球温度和湿度)的变化。

214期间电能使用效率iPUE

ISO给出的期间电能使用效率iPUE的定义为:在指定时间测得的PUE,非全年值。

215电能使用效率实测值EEUE-R

GB/T329103—2016给出的EEUE-R的定义为:根据数据中心各组成部分电能消耗测量值直接得出的数据中心电能使用效率。使用EEUE-R时应采用EEUE-Ra方式标明,其中a用以表明EEUE-R的覆盖时间周期,可以是年、月、周。

216电能使用效率修正值EEUE-X

GB/T329103—2016给出的EEUE-X的定义为:考虑采用的制冷技术、负荷使用率、数据中心等级、所处地域气候环境不同产生的差异,而用于调整电能使用率实测值以补偿其系统差异的数值。

217采用不同能源的PUE计算方法

数据中心通常采用的能源为电力,当采用其他能源时,计算PUE时需要采用能源转换系数加以修正。不同能源的转换系数修正是评估数据中心的一次能源使用量或燃料消耗量的一种方法,其目的是确保数据中心购买的不同形式的能源(如电、天然气、冷水)可以进行公平地比较。例如,如果一个数据中心购买当地公用事业公司提供的冷水,而另一个数据中心采用由电力生产的冷水,这就需要有一个系数能使得所使用的能源在相同的单位下进行比较,这个系数被称为能源转换系数,它是一个用来反映数据中心总的燃料消耗的系数。当数据中心除采用市电外,还使用一部分其他能源时,就需要对这种能源进行修正。

218PUE和EEUE计算方法的比较

如果仅从定义来看,PUE和EEUE的计算方法十分简单,且完全相同。但是当考虑到计算条件的不同,需要对电能使用效率进行修正时,2种效率的计算方法则有所不同。

1)PUE已考虑到使用不同能源时的影响,并给出了修正值和计算方法;GB/T329103—2016未包括可再生能源利用率,按照计划这一部分将在GB/T329104《可再生能源利用率》中说明。

2)PUE还有若干衍生能源效率指标可供参考,其中ISO提出的dPUE弥补了传统PUE的不足;EEUE则有类似于iPUE的指标EEUE-Ra。

3)EEUE分级(见表1)与PUE分级(见表2)不同。

4)EEUE同时考虑了安全等级、所处气候环境、空调制冷形式和IT设备负荷使用率的影响。ASHRAE最初给出了19个气候区的PUE最大限值,由于PUE已从ASHRAE标准中去除,所以目前的PUE未考虑气候的影响;ISO在计算dPUE时,要求考虑气候的影响,但是如何考虑未加说明;PUE也未考虑空调制冷形式和负荷使用率的影响,其中IT设备负荷率的影响较大,应加以考虑。

22.PUE和EEUE的测量位置和测量方法

221PUE的测量位置和测量方法

根据IT设备测点位置的不同,PUE被分成3个类别,即PUE1初级(提供能源性能数据的基本评价)、PUE2中级(提供能源性能数据的中级评价)、PUE3高级(提供能源性能数据的高级评价)。

PUE1初级:在UPS设备输出端测量IT负载,可以通过UPS前面板、UPS输出的电能表以及公共UPS输出总线的单一电表(对于多个UPS模块而言)读取。在数据中心供电、散热、调节温度的电气和制冷设备的供电电网入口处测量进入数据中心的总能量。基本监控要求每月至少采集一次电能数据,测量过程中通常需要一些人工参与。

PUE2中级:通常在数据中心配电单元前面板或配电单元变压器二次侧的电能表读取,也可以进行单独的支路测量。从数据中心的电网入口处测量总能量,按照中等标准的检测要求进行能耗测量,要求每天至少采集一次电能数据。与初级相比,人工参与较少,以电子形式采集数据为主,可以实时记录数据,预判未来的趋势走向。

PUE3高级:通过监控带电能表的机架配电单元(即机架式电源插座)或IT设备,测量数据中心每台IT设备的负载(应该扣除非IT负载)。在数据中心供电的电网入口处测量总能量,按照高标准的检测要求进行能耗测量,要求至少每隔15min采集一次电能数据。在采集和记录数据时不应该有人工参与,通过自动化系统实时采集数据,并支持数据的广泛存储和趋势分析。所面临的挑战是以简单的方式采集数据,满足各种要求,最终获取数据中心的各种能量数据。

对于初级和中级测量流程,建议在一天的相同时间段测量,数据中心的负载尽量与上次测量时保持一致,进行每周对比时,测量时间应保持不变(例如每周周三)。

222EEUE的测量位置和测量方法

1)Et测量位置在变压器低压侧,即A点;

2)当PDU无隔离变压器时,EIT测量位置在UPS输出端,即B点;

3)当PDU带隔离变压器时,EIT测量位置在PDU输出端,即C点;

4)大型数据中心宜对各主要系统的耗电量分别计量,即E1,E2,E3点;

5)柴油发电机馈电回路的电能应计入Et,即A1点;

6)当采用机柜风扇辅助降温时,EIT测量位置应为IT负载供电回路,即D点;

7)当EIT测量位置为UPS输出端供电回路,且UPS负载还包括UPS供电制冷、泵时,制冷、泵的能耗应从EIT中扣除,即扣除B1和B2点测得的电量。

223PUE和EEUE的测量位置和测量方法的差异

1)PUE的Et测量位置在电网输入端、变电站之前。而GB/T329103—2016规定EEUE的Et测量位置在变压器低压侧。数据中心的建设有2种模式:①数据中心建筑单独设置,变电站自用,大型和超大型数据中心一般采用这种模式;②数据中心置于建筑物的某一部分,变电站共用,一般为小型或中型数据中心。由于供电局的收费都包括了变压器的损失,所以为了准确计算EEUE,对于前一种模式,Et测量位置应该在变压器的高压侧。

2)按照222节第6条,在计算EIT时,应减去机柜风机的能耗。应该指出的是,机柜风机不是辅助降温设备,起到降温作用的是来自空调设备的冷空气,降温的设备为空调换热器,机柜风机只是起到辅助传输冷风的作用,因此机柜风机不应作为辅助降温设备而计算其能耗。在GB/T329103征求意见时就有人提出:机柜风机的能耗很难测量,所以在实际工程中,计算PUE时,EIT均不会减去机柜风机的能耗。在美国,计算PUE时,机柜风机的能耗包括在EIT中。

3)PUE的测点明显多于GB/T329103—2016规定的EEUE的测点。

23.PUE存在的问题

1)最近两年国内外对以往所宣传的PUE水平进行了澄清。我国PUE的真实水平也缺乏权威调查结果。GB/T329103—2016根据国内实际状况,将一级节能型数据中心的EEUE放宽到10~16,其上限已经超过了国家有关部委提出的绿色数据中心PUE应低于15的要求,而二级比较节能型数据中心的EEUE规定为16~18,应该说这样的规定比较符合国情。

2)数据中心总能耗Et的测量位置直接影响到PUE的大小,因此应根据数据中心建筑物市电变压器所承担的荷载组成来决定其测量位置。

3)应考虑不同负荷率的影响。当负荷率低于30%时,不间断电源UPS的效率会急剧下降,PUE值相应上升。对于租赁式数据中心,由于用户的进入很难一步到位,所以数据中心开始运行后,在最初的一段时间内负荷率会较低,如果采用设计PUE,也就是满负荷时的PUE来评价或验收数据中心是不合理的。

4)数据中心的PUE低并非说明其碳排放也低。完全采用市电的数据中心与部分采用可再生能源(太阳能发电、风电等),以及以燃气冷热电三联供系统作为能源的数据中心相比,显然碳排放指标更高。数据中心的碳排放问题已经引起国际上广泛地关注,碳使用效率CUE已经成为数据中心重要的关键性能指标,国内对此的关注度还有待加强。

5)GB/T329103—2016规定,在计算EIT时,应减去机柜风机的耗能。关于机柜风机的能耗是否应属于IT设备的能耗,目前国内外有不同的看法,其中主流观点是服务器风机的能耗应属于IT设备的能耗,其原因有二:一是服务器风机是用户提供的IT设备中的一个组成部分,自然属于IT设备;二是由于目前服务器所采用的风机基本上均为无刷直流电动机驱动的风机(即所谓EC电机),风机的风量和功率随负荷变化而改变,因此很难测量风机的能耗。由于数据中心风机的设置对PUE的大小影响很大,需要认真分析。从实际使用和节能的角度出发,有人提出将服务器中的风机取消,而由空调风机取代。由于大风机的效率明显高于小风机,且初投资也可以减少,因此这种替代方法被认为是一个好主意,不过这是一个值得深入研究的课题。

6)国内相关标准有待进一步完善。GB/T329103—2016《数据中心资源利用第3部分:电能能效要求和测量方法》的发布,极大地弥补了国内标准在数据中心电能能效方面的不足;同时,GB/T329103—2016标准颁布后,也引起了国内学术界和工程界的热议。作为一个推荐性的国家标准如何与已经颁布执行的强制性行业标准YD 5193—2014《互联网数据中心(IDC)工程设计规范》相互协调?在标准更新或升级时,包括内容相似的国际标准ISOIEC 30134-2-2016在内的国外相关标准中有哪些内容值得借鉴和参考?标准在升级为强制性国家标准之前相关机构能否组织就其内容进行广泛的学术讨论?都是值得考虑的重要课题。ASHRAE在发布ASHRAE904标准时就说明,数据中心的标准建立在可持续发展的基础上,随着科学技术的高速发展,标准也需要不断更新和创新。

7)PUE的讨论已经相当多,事实上作为大数据中心的投资方和运营方,更关心的还是数据中心的运行费用,尤其是电费和水费。目前在数据中心关键性能指标中尚缺乏一个经济性指标,使得数据中心,尤其是大型数据中心和超大型数据中心的经济性无法体现。

24.PUE的比较

不同数据中心的PUE值不应直接进行比较,但是条件相似的数据中心可以从其他数据中心所提供的测量方法、测试结果,以及数据特性的差异中获益。为了使PUE比较结果更加公平,应全面考虑数据中心设备的使用时间、地理位置、恢复能力、服务器可用性、基础设施规模等。

3.其他性能指标

31.ASHRAE904

ASHRAE904-2016提出了2个新的能源效率指标,即暖通空调负载系数MLC和供电损失系数ELC。但这2个指标能否为国际IT界接受,还需待以时日。

311暖通空调负载系数MLC

ASHRAE对MLC的定义为:暖通空调设备(包括制冷、空调、风机、水泵和冷却相关的所有设备)年总耗电量与IT设备年耗电量之比。

312供电损失系数ELC

ASHRAE对ELC的定义为:所有的供电设备(包括UPS、变压器、电源分配单元、布线系统等)的总损失。

32.TGG白皮书68号

2016年,TGG在白皮书68号中提出了3个新的能源效率指标,即PUE比(PUEr)、IT设备热一致性(ITTC)和IT设备热容错性(ITTR),统称为绩效指标(PI)。这些指标与PUE相比,不但定义不容易理解,计算也十分困难,能否被IT界接受,还有待时间的考验。

321PUE比

TGG对PUEr的定义为:预期的PUE(按TGG的PUE等级选择)与实测PUE之比。

322IT设备热一致性ITTC

TGG对ITTC的定义为:IT设备在ASHRAE推荐的环境参数内运行的比例。

服务器的进风温度一般是按ASHRAE规定的18~27℃设计的,但是企业也可以按照自己设定的服务器进风温度进行设计,在此进风温度下,服务器可以安全运行。IT设备热一致性表示符合ASHRAE规定的服务器进风温度的IT负荷有多少,以及与总的IT负荷相比所占百分比是多少。例如一个IT设备总负荷为500kW的数据中心,其中满足ASHRAE规定的服务器进风温度的IT负荷为450kW,则该数据中心的IT设备热一致性为95%。

虽然TGG解释说,IT设备热一致性涉及的只是在正常运行条件下可接受的IT温度,但是IT设备热一致性仍然是一个很难计算的能源效率,因为必须知道:1)服务器进风温度的范围,包括ASHRAE规定的和企业自己规定的进风温度范围;2)测点位置,需要收集整个数据中心服务器各点的进风温度,由人工收集或利用数据中心基础设施管理(DCIM)软件来统计。

323IT设备热容错性ITTR

TGG对ITTR的定义为:当冗余制冷设备停机,或出现故障,或正常维修时,究竟有多少IT设备在ASHRAE允许的或建议的送风温度32℃下送风。

按照TGG的解释,ITTR涉及的只是在出现冷却故障和正常维修运行条件下可接受的IT温度,但是ITTR也是一个很难确定的参数。ITTR的目的是当冗余冷却设备停机,出现冷却故障或在计划维护活动期间,确定IT设备在允许的入口温度参数下(<32℃)运行的百分比,以便确定数据中心冷却过程中的中断或计划外维护的性能。这个参数很难手算,因为它涉及到系统 *** 作,被认为是“计划外的”条件,如冷却单元的损失。

33.数据中心平均效率CADE

数据中心平均效率CADE是由麦肯锡公司提出,尔后又被正常运行时间协会(UI)采用的一种能源效率。

CADE提出时自认为是一种优于其他数据中心能源效率的指标。该指标由于被UI所采用,所以直到目前仍然被数量众多的权威著作、文献认为是可以采用的数据中心性能指标之一。但是笔者发现这一性能指标的定义并不严谨,容易被误解。另外也难以测量和计算。该指标的提出者并未说明IT资产效率如何测量,只是建议ITAE的默认值取5%,所以这一指标迄今为止未能得到推广应用。

34.IT电能使用效率ITUE和总电能使用效率TUE

2013年,美国多个国家级实验室鉴于PUE的不完善,提出了2个新的能源效率——总电能使用效率TUE和IT电能使用效率ITUE。

提出ITUE和TUE的目的是解决由于计算机技术的发展而使得数据中心计算机配件(指中央处理器、内存、存储器、网络系统,不包括IT设备中的电源、变压器和机柜风机)的能耗减少时,PUE反而增加的矛盾。但是这2个性能指标也未得到广泛应用。

35.单位能源数据中心效率DPPE

单位能源数据中心效率DPPE是日本绿色IT促进协会(GIPC)和美国能源部、环保协会、绿色网格,欧盟、欧共体、英国计算机协会共同提出的一种数据中心性能指标。GIPC试图将此性能指标提升为国际标准指标。

36.水利用效率WUE

TGG提出的水利用效率WUE的定义为:数据中心总的用水量与IT设备年耗电量之比。

数据中心的用水包括:冷却塔补水、加湿耗水、机房日常用水。根据ASHRAE的调查结果,数据中心基本上无需加湿,所以数据中心的用水主要为冷却塔补水。采用江河水或海水作为自然冷却冷源时,由于只是取冷,未消耗水,可以不予考虑。

民用建筑集中空调系统由于总的冷却水量不大,所以判断集中空调系统的性能时,并无用水量效率之类的指标。而数据中心由于全年制冷,全年的耗水量居高不下,已经引起了国内外,尤其是水资源贫乏的国家和地区的高度重视。如何降低数据中心的耗水量,WUE指标是值得深入研究的一个课题。

37.碳使用效率CUE

TGG提出的碳使用效率CUE的定义为:数据中心总的碳排放量与IT设备年耗电量之比。

CUE虽然形式简单,但是计算数据中心总的碳排放量却很容易出错。碳排放量应严格按照联合国气象组织颁布的计算方法进行计算统计。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zz/10899097.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-12
下一篇 2023-05-12

发表评论

登录后才能评论

评论列表(0条)

保存