如何用PUE指标衡量机房能耗效率

如何用PUE指标衡量机房能耗效率,第1张

当前,测量数据中心的能耗指标有两种方法:Power Usage Effectiveness(电源使用效率,PUE)和Data Center Infrastructure Efficiency(数据中心基础架构效率,DCIE)。这两种方法都考虑了数据中心里供电、散热系统和IT设备所各自消耗的能量,得到了The Green Grid(绿色网格)组织的支持。这个组织是去年为了专门开发数据中心能效及生产力测量体系而组建的。The Green Grid 定义了这两种测量方法的具体计算方式:
1 PUE = 数据中心总设备能耗/IT设备能耗,PUE是一个比率,基准是2,越接近1表明能效水平越好。
2 DCiE = IT设备能耗/数据中心总设备能耗x 100,DCiE是一个百分比值,数值越大越好。
根据The Green Grid,北京科兰,测量数据中心中IT设备电耗的最有效的方法是测量机房PDU( power distribution units)的输出电量,这个方法应该代表了数据中心里向服务器机柜输送的总电力。

问题一:机房恒温恒湿空调年耗电量大概是多少 空调电量,根据机器大小,才能知道

问题二:精密空调耗占机房用电多少 这问题怎么回答,精密空调用电量占机房的比例是根据你机房的总用电及空调的功率来决定的,没有什么比例,空调用电只是很小一部分,而且机房面积越大占比也越小。

问题三:机房精密空调用电量怎么算 idc 设备上都有功率,是设备功率不是,制冷量 功率;功率时间就是电能,只能是大概;若要准确在空调前段按个电能表;

问题四:基站机房 耗电一般标准的基站是多少?(不算空调的话) 呵呵,看什么设备,设备多少,是否经常停电(电池充电也耗电啊),宏站机房我知道的,最少100多度(节能减排的功效啊)。

问题五:20平米的服务器机房用多大的空调合适 你好:在选择您所需空工的基础上应该更注意的一点,是选择什么样的空调,国内品牌。还是国外品牌,从长远的角度考虑建议您还是选择国外品牌、可靠信誉高、售后服务到位。选择机房专用空调更合适。

问题六:如何测量IDC机房的耗电量 除了计算机房空调(CRAC)系统外,影响计算机房冷却效率的几个主要因素是计算机设备相对进气口和排气口的方位所以,首先要确定服务器、交换机及其他散热设备是不是沿同一个总方向排放热空气
使用冷热通道的这项技术有助于隔离温度相近的空气,并且确保进入到机器的空气尽可能冷;确保冷空气被送入到任何设备之前没有被抽吸到机房外面一旦机房里面的布局排成了冷热通道,就可以在那些通道之间添加隔板,进一步提高效率,就像打开汽车空调后,最好把窗户摇起来另外可以对这种技术稍加变化,只隔离热通道,将计算机的排气口对着CRAC设备的进气口,或者对着充气室天花板的口子其次是全面的电力审查作为全面的电力审查,我们可以测量IDC机房机柜和机架上硬件部件的耗电量检查客户所用的不间断电源(UPS)系统的寿命
今天的UPS比仅仅三年前制造的UPS要高效得多要是使用寿命超过了五年,它们也许可以扔到垃圾堆了下一步是测量和记录其余IT部件的耗电量为了简化这项任务,我们从Appropedia获得了这张电力审查(Power Audit)计算表计算表里面包含计算耗电量的公式一旦计算完毕,就可以确定电力效率最低的部件,然后根据它们各自的设置来设定减少多少耗电量,或者更换成或升级到能效更高的机型最后一步是摸清PUE
理想的PUE应该是10,这表明计算机资源组成了整个基础架构当然,这在大多数情况下是不可能的;PUE为20或25被认为是中小型IDC机房的平均值据调查发现,如果客户的数据中心已经过了充分的隔离,最多可以将空调成本节省15%、将风扇系统的成本节省67%
下一步是计算IDC机房的电力使用效率(PUE)
要进行全面的电力审查,必须先完成这一步,因为这可以提供衡量的基准,以便跟踪电力效率的改进
只要将IDC机房及其基础架构(包括灯光、冷却和所有IT设备)的总耗电量(瓦特)除以IT负载本身,就能得出PUEIT负载仅仅包括与计算机直接有关的部件,比如服务器、存储系统、交换机和路由器等,而不包括不间断电源(UPS)、冷却系统或没有接入到计算机的任何设备

问题七:500平米机房装空调一年大约需要多少电量 具体要看房屋的密封保温条件和配置的空调大小了。室外环境温度高低及室内温度设置的高低、房间大小及密封保温条件与耗电量有直接的关系。
500平米的房屋最起码要配置40匹以上的空调,每匹空调的功耗制冷可按850瓦计算耗电量,平均每小时的耗电量在20-35度之间。
制热可按1400瓦的功耗(含辅电功率)计算耗电量,平均每小时的耗电量在35-56度之间。

问题八:机房精密空调与普通舒适空调的区别? 机房精密空调和普通舒适空调的区别体现在很多方面;计算机机房对温度、湿度及洁净度均有较严格的要求,因此,计算机机房精密空调在设计上与传统的舒适性空调有着很大的区别,表现在以下5个方面:
1传统的舒适性空调主要是针对于人员设计,送风量小,送风焓差大,降温和除湿同时进行;而机房内显热量占全部热量的90%以上,它包括设备本身发热、照明发热量、通过墙壁、天花、窗户、地板的导热量,以及阳光辐射热,通过缝隙的渗透风和新风热量等。这些发热量产生的湿量很小,因此采用舒适性空调势必造成机房内相对湿度过低,而使设备内部电路元器件表面积累静电,产生放电从而损坏设备、干扰数据传输和存储。同时,由于制冷量的(40%~60%)消耗在除湿上,使得实际冷却设备的冷量减少很多,大大增加了能量的消耗。
机房精密空调在设计上采用严格控制蒸发器内蒸发压力,增大送风量使蒸发器表面温度高于空气露点温度而不除湿,产生的冷量全部用来降温,提高了工作效率,降低了湿量损失(送风量大,送风焓差减小)。
2.舒适性空调风量小,风速低,只能在送风方向局部气流循环,不能在机房形成整体的气流循环,机房冷却不均匀,使得机房内存在区域温差,送风方向区域温度低,其他区域温度高,发热设备因摆放位置不同而产生局部热量积累,导致设备过热损坏。
而机房精密空调送风量大,机房换气次数高(通常在30~60次/小时),整个机房内能形成整体的气流循环,使机房内的所有设备均能平均得到冷却。
3.传统的舒适性空调,由于送风量小,换气次数少,机房内空气不能保证有足够高的流速将尘埃带回到过滤器上,而在机房设备内部产生沉积,对设备本身产生不良影响。且一般舒适性空调机组的过滤性能较差,不能满足计算机的净化要求。
采用机房精密空调送风量大,空气循环好,同时因具有专用的空气过滤器,能及时高效的滤掉空气中的尘挨,保持机房的洁净度。
4.因大多数机房内的电子设备均是连续运行的,工作时间长,因此要求机房精密空调在设计上可大负荷常年连续运转,并要保持极高的可靠性,施耐德优力专用空调机, 能充分满足用户的各种需求。舒适性空调较难满足要求,尤其是在冬季,计算机机房因其密封性好而发热设备又多,仍需空调机组正常制冷工作,此时,一般舒适性空调由于室外冷凝压力过低已很难正常工作,机房精密空调通过可控的室外冷凝器,仍能正常保证制冷循环工作。
5.机房精密空调一般还配备了专用加湿系统,高效率的除湿系统及电加热补偿系统,通过微处理器,根据各传感器返馈回来的数据能够精确的控制机房内的温度和湿度,而舒适性空调一般不配备加湿系统,只能控制温度且精度较低,湿度则较难控制,不能满足机房设备的需要。
综上所述,机房精密空调与舒适型空调在产品设计方面存在显著差别,二者为不同的目的而设计,无法互换使用。计算机机房内必须使用机房精密空调,而针对精密空调,目前,国内许多企业,类似施耐德电气公司已经广泛研究制造,提高了机房内计算机、网络、通信系统的可靠性和运行的经济性。

问题九:知道精密空调的总冷量,怎么计算空调的用电功率? 用制冷量除以3,就估算出制冷时的输入功率是27KW,但这不是最大用电功率。
精密空调其实就是恒温恒湿空调,能升温降温,能除湿能加湿,用电的地方除了压缩机,还有加湿器(精密空调一般采用电极加湿,功率很大),还有电加热,用电最大的时候应该是制热的同时加湿,这时会启动电加热,注意不是电辅助加热,而是纯电加热,和电极加湿器,这时用电量远远超过压缩机制冷。还有就是除湿和制热同时工作,这时压缩机工作除湿,电加热制热,耗电不一定比前一种可能小。

云计算数据中心中国龙网云数据中心>

云数据中心的特点首先是高度的虚拟化,这其中包括服务器、存储、网络、应用等虚拟化,使用户可以按需调用各种资源;其次是自动化管理程度,包括对物理服务器、虚拟服务器的管理,对相关业务的自动化流程管理、对客户服务的收费等自动化管理;最后是绿色节能,云计算数据中心在各方面符合绿色节能标准,一般PUE值不超过15。

云数据中心与传统数据中心在区别:
一是云数据中心的基础设备更加规模化、标准化,由此带来了管理的复杂性。
其次,云数据中心为了节省成本、实现日益增多的业务,必须采用各种虚拟化技术。
第三大管理差异,体现在自动化方面。

在云数据中心,当业务需要迁移、设备需要统一配置、故障需要及时检查排除、流程需要跟踪时,如何高效管理这样海量的设备和应用?当然需要通过自动化的手段来实现。
云数据中心的出现无疑是一新的进展。除了高度的虚拟化等特征,还包括新技术和新产品,如低功耗CPU,固态硬盘等。可以说云数据中心是传统数据中心的拯救者。

PUE的3种计算公式。
1:=数据中心总能耗/IT设备能耗,2:=(IT设备能耗+空调能耗+供配电系统能耗+其他能耗)/IT设备能耗,3:=1+空调能耗因子+供配电能耗因子+其他能耗因子。

PUE = 数据中心总设备能耗/IT设备能耗,PUE是一个比率,基准是2,越接近1表明能效水平越好。
测量数据中心的能耗指标Power Usage Effectiveness(电源使用效率,PUE)


欢迎分享,转载请注明来源:内存溢出

原文地址: https://outofmemory.cn/zz/13339894.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-07-17
下一篇 2023-07-17

发表评论

登录后才能评论

评论列表(0条)

保存