IT设备功率2300瓦每小时耗电量

IT设备功率2300瓦每小时耗电量,第1张

问题一:机房恒温恒湿空调年耗电量大概是多少 空调电量,根据机器大小,才能知道

问题二:精密空调耗占机房用电多少 这问题怎么回答,精密空调用电量占机房的比例是根据你机房的总用电及空调的功率来决定的,没有什么比例,空调用电只是很小一部分,而且机房面积越大占比也越小。

问题三:机房精密空调用电量怎么算 idc 设备上都有功率,是设备功率不是,制冷量 功率;功率时间就是电能,只能是大概;若要准确在空调前段按个电能表;

问题四:基站机房 耗电一般标准的基站是多少?(不算空调的话) 呵呵,看什么设备,设备多少,是否经常停电(电池充电也耗电啊),宏站机房我知道的,最少100多度(节能减排的功效啊)。

问题五:20平米的服务器机房用多大的空调合适 你好:在选择您所需空工的基础上应该更注意的一点,是选择什么样的空调,国内品牌。还是国外品牌,从长远的角度考虑建议您还是选择国外品牌、可靠信誉高、售后服务到位。选择机房专用空调更合适。

问题六:如何测量IDC机房的耗电量 除了计算机房空调(CRAC)系统外,影响计算机房冷却效率的几个主要因素是计算机设备相对进气口和排气口的方位所以,首先要确定服务器、交换机及其他散热设备是不是沿同一个总方向排放热空气

使用冷热通道的这项技术有助于隔离温度相近的空气,并且确保进入到机器的空气尽可能冷;确保冷空气被送入到任何设备之前没有被抽吸到机房外面一旦机房里面的布局排成了冷热通道,就可以在那些通道之间添加隔板,进一步提高效率,就像打开汽车空调后,最好把窗户摇起来另外可以对这种技术稍加变化,只隔离热通道,将计算机的排气口对着CRAC设备的进气口,或者对着充气室天花板的口子其次是全面的电力审查作为全面的电力审查,我们可以测量IDC机房机柜和机架上硬件部件的耗电量检查客户所用的不间断电源(UPS)系统的寿命

今天的UPS比仅仅三年前制造的UPS要高效得多要是使用寿命超过了五年,它们也许可以扔到垃圾堆了下一步是测量和记录其余IT部件的耗电量为了简化这项任务,我们从Appropedia获得了这张电力审查(Power Audit)计算表计算表里面包含计算耗电量的公式一旦计算完毕,就可以确定电力效率最低的部件,然后根据它们各自的设置来设定减少多少耗电量,或者更换成或升级到能效更高的机型最后一步是摸清PUE

理想的PUE应该是10,这表明计算机资源组成了整个基础架构当然,这在大多数情况下是不可能的;PUE为20或25被认为是中小型IDC机房的平均值据调查发现,如果客户的数据中心已经过了充分的隔离,最多可以将空调成本节省15%、将风扇系统的成本节省67%

下一步是计算IDC机房的电力使用效率(PUE)

要进行全面的电力审查,必须先完成这一步,因为这可以提供衡量的基准,以便跟踪电力效率的改进

只要将IDC机房及其基础架构(包括灯光、冷却和所有IT设备)的总耗电量(瓦特)除以IT负载本身,就能得出PUEIT负载仅仅包括与计算机直接有关的部件,比如服务器、存储系统、交换机和路由器等,而不包括不间断电源(UPS)、冷却系统或没有接入到计算机的任何设备

问题七:500平米机房装空调一年大约需要多少电量 具体要看房屋的密封保温条件和配置的空调大小了。室外环境温度高低及室内温度设置的高低、房间大小及密封保温条件与耗电量有直接的关系。

500平米的房屋最起码要配置40匹以上的空调,每匹空调的功耗制冷可按850瓦计算耗电量,平均每小时的耗电量在20-35度之间。

制热可按1400瓦的功耗(含辅电功率)计算耗电量,平均每小时的耗电量在35-56度之间。

问题八:机房精密空调与普通舒适空调的区别? 机房精密空调和普通舒适空调的区别体现在很多方面;计算机机房对温度、湿度及洁净度均有较严格的要求,因此,计算机机房精密空调在设计上与传统的舒适性空调有着很大的区别,表现在以下5个方面:

1传统的舒适性空调主要是针对于人员设计,送风量小,送风焓差大,降温和除湿同时进行;而机房内显热量占全部热量的90%以上,它包括设备本身发热、照明发热量、通过墙壁、天花、窗户、地板的导热量,以及阳光辐射热,通过缝隙的渗透风和新风热量等。这些发热量产生的湿量很小,因此采用舒适性空调势必造成机房内相对湿度过低,而使设备内部电路元器件表面积累静电,产生放电从而损坏设备、干扰数据传输和存储。同时,由于制冷量的(40%~60%)消耗在除湿上,使得实际冷却设备的冷量减少很多,大大增加了能量的消耗。

机房精密空调在设计上采用严格控制蒸发器内蒸发压力,增大送风量使蒸发器表面温度高于空气露点温度而不除湿,产生的冷量全部用来降温,提高了工作效率,降低了湿量损失(送风量大,送风焓差减小)。

2.舒适性空调风量小,风速低,只能在送风方向局部气流循环,不能在机房形成整体的气流循环,机房冷却不均匀,使得机房内存在区域温差,送风方向区域温度低,其他区域温度高,发热设备因摆放位置不同而产生局部热量积累,导致设备过热损坏。

而机房精密空调送风量大,机房换气次数高(通常在30~60次/小时),整个机房内能形成整体的气流循环,使机房内的所有设备均能平均得到冷却。

3.传统的舒适性空调,由于送风量小,换气次数少,机房内空气不能保证有足够高的流速将尘埃带回到过滤器上,而在机房设备内部产生沉积,对设备本身产生不良影响。且一般舒适性空调机组的过滤性能较差,不能满足计算机的净化要求。

采用机房精密空调送风量大,空气循环好,同时因具有专用的空气过滤器,能及时高效的滤掉空气中的尘挨,保持机房的洁净度。

4.因大多数机房内的电子设备均是连续运行的,工作时间长,因此要求机房精密空调在设计上可大负荷常年连续运转,并要保持极高的可靠性,施耐德优力专用空调机, 能充分满足用户的各种需求。舒适性空调较难满足要求,尤其是在冬季,计算机机房因其密封性好而发热设备又多,仍需空调机组正常制冷工作,此时,一般舒适性空调由于室外冷凝压力过低已很难正常工作,机房精密空调通过可控的室外冷凝器,仍能正常保证制冷循环工作。

5.机房精密空调一般还配备了专用加湿系统,高效率的除湿系统及电加热补偿系统,通过微处理器,根据各传感器返馈回来的数据能够精确的控制机房内的温度和湿度,而舒适性空调一般不配备加湿系统,只能控制温度且精度较低,湿度则较难控制,不能满足机房设备的需要。

综上所述,机房精密空调与舒适型空调在产品设计方面存在显著差别,二者为不同的目的而设计,无法互换使用。计算机机房内必须使用机房精密空调,而针对精密空调,目前,国内许多企业,类似施耐德电气公司已经广泛研究制造,提高了机房内计算机、网络、通信系统的可靠性和运行的经济性。

问题九:知道精密空调的总冷量,怎么计算空调的用电功率? 用制冷量除以3,就估算出制冷时的输入功率是27KW,但这不是最大用电功率。

精密空调其实就是恒温恒湿空调,能升温降温,能除湿能加湿,用电的地方除了压缩机,还有加湿器(精密空调一般采用电极加湿,功率很大),还有电加热,用电最大的时候应该是制热的同时加湿,这时会启动电加热,注意不是电辅助加热,而是纯电加热,和电极加湿器,这时用电量远远超过压缩机制冷。还有就是除湿和制热同时工作,这时压缩机工作除湿,电加热制热,耗电不一定比前一种可能小。

分类: 电脑/网络

解析:

知道你电脑的耗电量吗?

电脑各部件耗电详细列表:

注一: 相信这么一个实验就是了,整套来PC计算CRT的一套一度电可用4-5小时;LCD的一套一度电可用5-6 小时,容易明白了吧简单的方法就是单开你的电脑4小时看电表走了多少度电要精确也不难,有交流电流 表测一下多少A交流电流.公式:W=220*A

注二:专家建议,最好的办法是:把家里的所有电器关闭。开电脑一个小时,看看电表!

CPU:

Intel Pentium MMX 166 - 233 MHz 17w

Pentium II Klamath 233 - 300 MHz 43w

Pentium II 266 - 450 MHz 27w

Pentium III 450 - 1000 MHz 24——30w

Pentium III FC-PGA 600 - 800 MHz 21w

Pentium III FC-PGA 850 - 1000 MHz 35w

Pentium III Tualitin 1000 - 1300 MHz 38w

Celeron Socket 370 35w

赛扬 300 mhz 18W

赛扬 500 mhz 30w

赛扬Ⅱ 600 mhz 21w

赛扬Ⅱ 11ghz 40w

赛扬Ⅲtualatin 1ghz 27w

赛扬Ⅲtualatin 12ghz 29w

Celeron D 253 70w

Celeron D 330 266GHZ 74W

Celeron D 335J 28G LGA 775 84W

C4(willamette)17 62w

C4(willamette)18 65w

C4(northwood) 20 52w

C4(northwood) 21 54w

C4(northwood) 22 57w

C4(northwood) 24 61w

Intel Pentium 4 Socket 423

150Ghz 578——75W

 160Ghz 610——89W

 170Ghz 640——89W

 180Ghz 667——89W

 190Ghz 692——96W

 200Ghz 718——96W

Intel Pentium 4 Socket 478 Willamette Northwood

150 Ghz 579W

160 Ghz 608W

170 Ghz 635W

180 Ghz 49——661W

190 Ghz 728W

200 Ghz 52——753W

24 61w

24B 68w

24C 66W

266 59w

28C 67——70w

28E 85——89w

306 81——100w

30E 97w

32 82——103W

32EE 82——109W

Intel Pentium 4 Prescott 2000 -3000 Mhz 66--96w

其中 28G 84W

26G 78W

24G 73W

20G 66W

32G - 34G 100 ——131w

Intel Pentium 4 Extreme Edition (3200 Mhz) 92W

Intel Pentium 4 Extreme Edition (3400 Mhz) 103W

Intel Xeon Socket 604 87W

Intel Pentium M dothan 213g 99w

20g 96w

18g 95w

16g 95w

AMD K6 166 - 300 MHz 15W

AMD K6-2 233 - 550 MHz 18W

AMD K6-III 400 -450 MHz 18W

AMD Classic Athlon Slot A 500 - 750 MHz 35——45W

AMD Classic Athlon Slot A 800 - 850 MHz 45W

AMD Classic Athlon Slot A 900 - 950 MHz 55W

AMD Classic Athlon Slot A 1000 MHz 60W

AMD Athlon T-Bird 650 - 1000 MHz 42——49W

AMD Athlon T-Bird 11 GHz 56W

AMD Athlon T-Bird 12 GHz 59——66W

AMD Athlon T-Bird 13 GHz 63——68W

AMD Athlon T-Bird 14 GHz 65——72W

AMD Duron Spitfire 550 - 950 MHz 21——42W

 其中 550 15v--211w

600 16v--274w

650 16v--294w

700 16v--314w

750 16v--334w

800 16v--354w

850 16v--374w

900 16v--395w

950 16v--415w

AMD Duron Man 900 - 1300 MHz 50——60W

 900 175v 427w

 950 175v 444w

 10G 175v 461w

 11G 175v 503w

AMD Duron Applebred 1400 -1800 MHz 57W

AMD Athlon XP Palomino 1500+ 14g 65——72w

1700+ 147g 57——64w

2100+ 173g 64——72w

AMD Athlon XP 175伏 2100+ 8988w

AMD Athlon XP Thoroughbred 1600+ - 1900+ 53--66W

2000+ - 2100+ 62W

2200+ - 2700+ 68--76W

2800+ 333FSB 74W

AMD Athlon XP Barton 2500+ 1833g 54——69w

2600+ 72W

3000+ 2167g 58——74w

3200+ 77w

AMD AthlonXP 1500+ 133 GHz 600 w

1600+ 140 GHz 628 w

1700+ 147 GHz 640 w

1800+ 153 GHz 46——60w

1900+ 16g 48——61w

2000+ 1667g 55——60w

2100+ 1733g 56——64w

2200+ 18g 62——68w

2600+ 2133g 62——68w

2800+ 225g 64——74w

AMD Athlon MP Palomino 1500+ - 2100+ 60——72w

AMD Athlon MP Barton 1g-12g 46——60w

AMD Athlon 64 (3000+ - 3400+) 67——89w

Socket754 2800+ 70——89W

Socket754 3000+ 73——89W

939 3000+ 67——75W

939 3200+ 67——75W

939 3500+ 67——75W

AMD Athlon 64 FX 89w

winchester 22g 118——162w

20g 118——158w

18g 118——155w

16g 117——149w

AMD Opteron (Single Processor) 85W

Sempron Socket462 2200+ 49W——62W

2300+ 59W

2400+ 61W

2500+ 64W

2600+ 49W——66W

2800+ 69W

Sempron Socket754 2600+ 62W

2800+ 65W

3100+ 62w——72W

显卡

早期S3 Savage3D RIVA 128、TNT、G200、Voodoo2等显卡功耗约为3——6W左右。到RIVA TNT2 、S3 Savage4、Voodoo3、G400、ATi Rage GL/VR这一代,功耗约为5——10W。随着GeForce 256、GeForce2、 GeForce3、GeForce4系列和ATi RADEON、RADEON7500、8500、9000(9700)系列,显卡的功耗已达到了15 ——35W之间。专业级显卡的显存多且处理能力更为卓越,其功耗在35——60W之间。近期一些显卡的功耗 特别是SLI的达到了150W——200W,甚至采用单独外接市电的办法。

32MB or Less AGP/PCI Basic Video 20-30W

oc版9550可参照9600/9600PRO/9600XT;S3 S3CE、6200 AGP 20-30W

ATI Radeon 7000/7500/8500 AGP/PCI 15——30 瓦

ATI Radeon 9000/9100/9200 AGP/PCI 15——35 瓦

ATI Radeon 9500/9600 20——56 瓦

ATI Radeon 9700/9800 40——60 瓦

ATI Radeon 9800XT 40——68 瓦

ATI Radeon X800 70——93 瓦

nVidia GeForce 3 Ti Series 30w

nVidia GeForce 4 MX Series 30w

Nvidia GeForce 4 Ti 4600 25——30w

nVidia GeForce 4 Ti Series 35w

nVidia GeForce FX 5200 30——65w

nVidia GeForce FX 5600 40——75w

nVidia GeForce FX 5800 80w

nVidia GeForce FX 5900 85w

nVidia GeForce FX 6800 (Regular/GT) 75——105w

nVidia GeForce FX 6800 Ultra 110w

6600 AGP 40W

6600 GT 50——75W

7800 以上 75——150W

内存:

128M PC66/PC100 SDRAM 7w

PC133 SDRAM 12w

256M DDR 6W ——15W

512M DDR 10 ——25W

硬盘

开机初始化时 20-30W。

7200PRM 80G ———— 22W

7200PRM 160G———— 28W

光驱 CD-ROM 驱动器 15——20W

DVD-ROM 驱动器 15——25W

CD-RW 驱动器 15——25W

DVD/CDRW 组合驱动器 30w

DVD-RW / DVD+RW 驱动器 33W (COMBO 25W)

Zip 驱动器 10w

CD-ROM+DVD-ROM+CD-RW的总功率为71W左右。虽然三台设备同时工作的可能性很小,但是开机自检会 涉及以上设备,因此考虑电源的承受功率时,必须考虑三个设备的最大值。

主板(不含CPU、内存) 20-30W (集成显卡再加多5-10W)

要准确的推断主板的耗电是非常困难的。通常主板上最耗电的是南、北桥芯片,像SiS公司的某些主 芯片只有一块。通常非整合主板的耗电量不超过20W,整合主板的耗电量不超过25W。

但有关资料介绍:

I875+ICH5R————66W

865PE+ICH5————61W

I848+ICH5———— 60W

845E+ICH4 ————43W

845GL+ICH4————46W

NFORCE2U400+MCP-T———60W

VIA KT600+VT8237 ———57W

VIA KT400A+8235————56W

PCI SCSI控制卡 20——25W

PCI 56K内置式调制解调器(外置式单独供电不考虑) 4——8w

PCI 网卡 4——6W

PCI 声卡(AC'97声卡3W,创新顶级声卡10W) 3——10W

其它附加PCI卡 5w

软盘驱动器 5w

键盘或鼠标 13——3w

CPU风扇 3——7w

机箱风扇 15—3W

USB摄影头 25w

冷阴极管 3w

内置6合1存储器 10w

外置设备的系统检查

USB 11/20 设备 25W——5

IEEE-1394 带电源设备 8

显示器

17CRT 80W

19CRT 105W

15LCD 35W

17LCD 44W

19LCD 50W

优质解答

“电的度数”即是电能

电能是指一段时间内电场力(或电源力)所做的功,单位是:千瓦时(kWh);

电功率是指单位时间内电场力(或电源力)所做的功,单位是:瓦特(W)

电能与电功率的关系是:电能=电功率×时间

每小时的“电的度数”(消耗的电能)=23kW×1h

=23kWh=23度

PUE不大于14在空调技术上是可行的。制约PUE的,我认为,现阶段主要是冷却技术、空调技术、如何高效排热的问题。

贴一个清华大学江亿院士的演讲:

各位来宾、各位专家、各位领导早上好!我好象是第一次参加绿色数据中心的技术大会,因为咱们不是搞计算机这行的,是搞空调,搞建筑节能的,但是好象也慢慢把我们推到这个行业了。为什么?是因为空调的能耗或者说派热降温的能耗在数据中心里占了比较大的比例。所以,刚才我听前面这位领导讲数据中心都快到了运行这个程度了,运行主要是能源消耗,能源消耗里就40%或者更多是空调的能耗。所以,怎么能够降低空调的能耗,一方面给国家的节能减排作贡献,一方面也使我们数据行业产生更好的经济效益,就变成重要的问题了,所以我今天跟大家汇报一下我们在这方面的想法跟体会。

从空调的特点来看,现在随着计算机电子技术的发展,芯片技术都比原来高,主机的发热度越来越大,这样导致空调排热成为这里面大的部分。后面有一些细的发展状况不说了,就直接看到空调里头。现在统计大致的结果,对于中小型的数据中心大概PUE值都在2,或者以上,这是空调占了一半或者还多的一个能源消耗。对大型的IDC机房管理做的比较好的,这时候空调效率相对比较高,但是也能占到40%左右的能耗。

所以,降低数据中心的能耗可能一个是提高服务器的使用效率,没活儿的让它歇着,一方面减少了空气的运行能耗,当然,电源也有可以提高的技术。空调应该有很大的潜力,空调里面的能耗由什么构成?以前一想说制冷机,压缩机耗电多,实际上压缩机耗电在50%-60%左右,除了压缩机之外,风机也能占在40%或者更多的空调耗能。

现在的情况什么样?大概有这么几块:第一、因为全年制冷,所以绝大部分的数据中心制冷机都开了,这是一年来总的空调的考点状况,可以看出冬天、夏天区别很少,北京、上海、广州冷的地方,热的地方区别很少,应该说冬天天凉了,北京空调越来越大幅度下来,这个变化也不大,所以全年度在这儿用。然后,有关发热密度非常大,负责把这些热量排走,所以循环风特别大。并且风吹的还厉害,不行把风量减少,降低送风温度,但是当冷源温度低于屋子里温度的时候,蒸发器就凝水,恨不得天天都出湿,出了湿又怕屋子里太干,所以又有了一些加湿器,这边除湿,那边又得加湿,又得用电,冬天大冷的天还得制冷,这构成了现在数据中心,无论是大的,还是小的空调能源消耗高的主要问题。

有这样问题是坏事儿,反过来又是好事儿。说明咱们在这儿的潜力特别大,有很大的潜力可以把空调能源消耗降下来。那么,走哪条道?怎么做?一听说这个空调跟你们建筑节能是一码事,建筑节能都抓围护结构保温,咱们整这个,围护结构,效果非常小,或者无效果,为什么?因为一个IDC密一点的机房一平米大概产热量3-5千万,通过围护结构进入或者出去的热量不会超过折合在占地面积上不会超过50瓦,所以,围护结构的影响很小,就是1%,2%的影响。当然,通过一些技术,避免外墙直接太阳辐射,比来我这儿热,再拿太阳照我,尽可能的密闭,别让风进来,这是很重要的。可能有些专家说,风渗进来,有什么不好,如果房子做的不密闭,就是不可控制的室外渗风,是凉快了,但是湿度下降了,夏天热容器不好,而且由于室外的湿度变化大,我数据中心里面希望湿度维持基本稳定不变,给我添加湿、除湿的麻烦事儿。因此,通过各方面应该把房子做密闭了,对目前来说不是保温的事儿,而且密闭的事儿,密闭最重要。

那么,怎么把热量排出去,马上前几年一些企业想办法说既然冬天不开制冷机,而且外边凉,最简单的通风换气吧,是通过凉风进来,把热量排走,这是有点节能,但是恐怕数据中心这么做不太合适,为什么?室外的灰尘赃,机器得干净,湿度室外是变化的,夏天北京的一立方米空气有2克的水汽,另外中国是烧煤的国家,70%的化石能源都来自于煤,燃煤就出硫,硫化物到室内,就会导致表面发生腐蚀现象,所以这是不行,您的冷却系统是为主机服务的,要是有损于主机,无论是灰尘还是硫化物,还有湿度都会影响主机的寿命,这是绝对不能有的。因此,说就想法通过过滤消除灰尘,想法加湿、除湿改变湿度,想法脱硫,当把这些东西都架上,就发现投入的成本和能源消耗就不低了,而且维护管理的工作量立刻上去了,那么这么大的数据中心要求高可靠性运行,于是这事儿有点别扭了。

还有通过热交换把凉气取回来,这个思路是挺好,对于一些小规模的计算中心,像一个大楼里的数据中心有时候还可以,但是对于大规模的机房是无法实现的,是因为直接走风道这么大发热量得有多大的风量直接室外来回换气,风道的体积在那儿摆着不合适,然后维护工作量非常大,尤其还是赃。所以,室外的低温必须想法用上,是通过室外的新风,怎么通过某种能量凉下来,最后把机器里面的热量带走。

所以,整个的数据中心的空调跟咱们楼里的空调概念不一样,它的核心事儿就是怎么把芯片那儿出来的热量通过某种介质传热,传完之后,几次交换,最后导到室外去就这么一个任务。所以,这时候根本目标就是让芯片的温度不要超过标准温度,然后把这个温度排出来。这样芯片表面温度和冷源温度的差跟热阻成正比,就是怎么把这个等效热阻降低了核心的事儿就变成了这么一个问题。温差小就是如果我芯片温度不许超过40度,如果我的温差是20度,只要室外温度低于20度,我就不用开冷空气就可以把热量排走,所以就要减少等效热阻。那么,这个等效热阻由什么构成?发现就像咱们的一个网络,三个电阻,三个等效热阻,哪三个过程?一个就是芯片跟空气之间的换热环节,这个差越大,温差就越大,比如我可以取平均温度,等效热阻就是这块面积除以热量,第一个环节就是容器跟芯片表面换热的环节。第二个环节,比如说我有一个精密空调跟水,或者室外的冷水换热,这冷水跟容器之间的换热环节,我们叫输送与换热热阻。第三个环节,循环介质与冷源之间换气,叫做冷源换热热阻。比如说室内温度到20度,实际只欠10度的温差,这时候冷空机提供的活儿就是这10度的温差。所以,把热阻减少了,无论是用自然冷源还是开冷风机都可以降低功耗。因此,核心的问题就是把这三个环节的热阻降下来。所以,就三个关键,第一、降低热量采集过程的热阻,同时不增加风机电耗。第二、降低热量传输过程中的热阻,同时不增加传输电耗。第三、找到温度更低的自然冷源,但是别破坏环境。

下面逐条看,采集过程中的热阻,实际的采集热阻,除了空气跟芯片换热之外,还有相当大的消耗是机房里面冷风跟热风的互相搀混,制冷机就是把冷风热的温度分开,分出冷热风,这个屋子里面又没地儿跑,又搀混起来了,所以避免冷风热机的搀混。比如说要是给定芯片温度,当搀混小的时候,回风温度可以更紧的接近芯片,如果我恒定芯片温度回风少的时候,这样就可以更大程度的利用这个资源。有一些实测的数据,是在大的IC机房里实测的,大家可以看出来,比如冷通道进来,从机房送出来应该这儿是16点几度,到这儿怎么就能30多度呢?它这儿上面还有一块挡,这30多度是哪儿来的?就是因为部分的过了服务器之后,服务器里面有空档,空档的热风又渗回来了,热风跟这些东西搀混到这些地儿,能到35度。为了保证上面服务器的这些效果,于是就得降低送风温度,为了保证上面差不多,结果把这个温差就拉大了,导致整个的冷交热的增加。所以,这儿看着排风有40度的,这些排风35、36度,总的到空调下一看,派风温度才28度,怎么降下来了?就是凉风过去跟热风搀和起来了,这样芯片大概在45度以上。如果避免了这些混合之后,就可以把回风温度很容易提高到35度,输送温度也可以提高到20度,保持芯片温度最高的温度不变,于是这温差小多了,采集的等效热阻下来了。当然,具体计算可以拿出温度差仔细算出来知道什么毛病,总的指导思想是这样的。所以,在机柜顶部架一些挡板,这样能够有点改善。但是由于金桂内刀片式服务器之间不可避免存在气流短路现象,因此,仍存在短路现象,使冷气流通道内有旁通过来的热气流,热气流通道内也会有旁通过来的冷气流。

还有就是直接把换热器安装在机柜内,在机柜内或者机柜旁制备冷空气,可以有效减少掺混这样现象,降低热量采集过程温差,可以减少风量、丰足,大幅降低风机电耗。所以,这是很重要一条,但是不能让柜子出水。

这样有一种做法,就是采用背板冷却,将空调系统热换器安装在装载IT设备的机柜上,根据机房内各个不同的机柜实现按需供冷,避免局部热。分布式制冷系统使空调系统的吸热端更接近热源。这是第一个减少采热采集过程中的热阻。

第二减少输配过程中的热阻,实际这个环节比如一条空调器,是空气跟水的换热,那么空气温度是这样的,水温度是这样的,就会看到有时候往往都不是平衡的,是带三角形性质的,只要带三角形性质,就浪费一部分温差。所以,想法调整两边的流量,使得两边的温差接近,可以有效的降低数配系统的等效热阻,或者减少等效温差。有时候说是由于我用背板,或者机柜里的换热器那里面不是走水,无论是走二氧化碳,还是走氟利昂,这是机柜内送派风温度,这是热管温度,这是室外侧进出口温度,是这么一个过程,(如图所示),还有一种换热器,每排的热管单独连接,这时候室内室外的温度就变小多了,尽管换热面积一样,它就强多了。当然,这样会导致热管布置起来要复杂,但是在二者之间,总有一个好的权衡去减少输送过程的热阻或者说降低它的温差。

第三条就是到底我们用什么样的室外的自然冷源和怎么把这自然冷源跟我的机械制冷有机的统一结合起来?因为有时候天热还得开冷机,这二者之间能不能实现一个比较自然的转换?我们现在看看到底把这个热量往哪儿排,实际在空气里面并不是一个空气的问题,咱们有三种温度,一种就是空气的干球温度,像今天大概室外27、28度,是天气预报说的温度。直接换热就是干球温度。但是,如果我对外面拿冷却塔喷水,就是湿球温度,大概23、24度。比如到五一湿球温度比干球温度低的多,所以通过冷却塔就可以降低湿球温度,还可不可以再降低,还有一种就是间接蒸发冷却,西部地区很多地方用它做空调,它可以把试问降到室外的露点温度,像现在这个时候,北京的露点温度低于20度了。

这是拿北京气侯为例,蓝的是全球的干球温度,红的是湿球温度,绿的是全年的露点温度的变化。所以,我要是安全露点温度考虑问题,全年北京市5876小时低于20度的时间占全年的67%,如果热阻做好了,就只有10%几的时间,做不好,15度的时候,露点温度也能占到77%的时间。所以这个比例还是挺大的。

那么,怎么跟制冷机统一起来,实现无缝连接,自然过渡呢?这是一个方案,包括几部分,先说柜子,刚才我讲背板式的换热,现在是上下的换热,屋子里的空气26度,从这儿进入机柜,两组换热器,一组一个管给19度,一个管给16度,经过两种换热,从26度到20度,经过发热的服务器,达到32度,然后经过两组换热器降温,又变成26度,再回来,维持屋子里的温度是26度,不是靠屋子里别地儿装的孔,而是靠这个机柜,屋子里的温度是由机柜决定的,由于屋子里的温度是16度,露点温度只有12、13度,我把物资弄密闭了,人也不怎么进去,里面没有湿的事儿。然后,这四组换散热器,拿热管引出来,这四组是16、19、22、25度,然后这个水就是跟这热管换热,把热量都带到水里去,所以从15恩度,涨到24度。然后,24度,如果室外是两管,冷空气不用开,直接经过间接冷却塔就能够把水温降大15度,如果温度再低,只要朝这风机跟这儿的转换装置,能够维持我进入到换热器全年只有15度。当室外温度高到30度,露点温度到18度,这时候冷却塔还能起一点作用,能起1/3的冷量还从这儿出,不足了再拿冷风机降一部分。所以,这个冷风机是连续的就能够使得冷风气从10%的复合逐渐加到5%的复合。冷却塔只要露点温度在20度以下,总能起点作用。

这样一个系统,这儿计算了一下,拿北京的气象条件可以看出来,如果是这么一个机房,跟一般传统的机房来比,咱们就直接取它一年用电量是百分之百,那么即使没有自然冷源,就是拿制冷机做,但是因为我减少了掺混,减少了数配能耗,能够节能40%几。如果用最好的间接冷却方式,用电量只有23%,能够节省70%的电量,所以有巨大的节能潜力。

按照这个思路,我们有一些机房的改造实例,这是清华大学图书馆的一个全校支持整个学老师、同学做研究的数据中心。它原来就是在这个屋子里头摆了一堆空调器,机器多了,热量还大,所以追加了好几台空调器。用了跟刚才这个图差不多的方式,结果总机柜里面的风机降到7千瓦,这时候能效比从27涨到82,就只用原来1/3的能耗。最热的时候,冷机都得开了,即使如此,能耗还能差一半。所以,全年下来总的能耗消耗能够降低60%左右,这就是一个实际案例,这个还有一些遗憾的地方,就是做得不彻底,做得彻底了,还能够进一步降低消耗量。

总结一下,就是数据中心排热的空调实际上有巨大的节能潜力和节能空间。它的核心是机房的气流组织怎么采集热量合理的空调器,其中几个基本原则,一个就是尽可能避免不同的温度的气流掺混,我们现在对机柜进行空调制冷的目的,不是对机房进行空调制冷,所以尽可能把冷源越贴近发热体越好,充分的利用自然冷源,有各种不同的法子获得不同温度的,然后想法介绍能耗,这样给出去的这些思路,今天讲的某一两个做法,实际在这个思路下发挥创新的精神还可以创造出好些各种各样的方案,真正把数据中心排热的空调能耗降下来。我们觉得完全按照目前大多数方式来比较,有可能把机房的空调节能达到70%以上,相当以机房用电量降低30%以上。刚才我听领导讲,国外发达国家比,机房的PUE到12,13那跟它机房的位置有关系。在不同的气侯条件下,实际上抓好这几条,以自然冷源为主,适当的加一点机械制冷的补充,解决一年里面20%,25%的节能,完全可以把我们国家不同地方数据中心的空调能耗都有效的降下来,应该做的比发达国家,比美国还好,谢谢大家。

不必担心。电脑一晚上不用待机状态,比较安全,而且耗电不大。

1、台式电脑的耗电量一般都是在400-500W左右,那么一宿的耗电也就是按十个小时左右计算,大约4度电,两块钱。

2、当较长时间不使用电脑的时候,电脑都会进入睡眠状态,睡眠状态的功耗相当于使用中的60%左右,那么也就是12块钱。

根据用电器功率,如何计算其每小时耗电量?

当我们计算某电器产品的耗电量,是以其电功率来计算,也就是这个电器每小时作了多少「功」(Work)。而这个功是由电流(Ampere)乘上电压(Voltage)所得,因此电功率的计算公式为:

W=AV(功=电流X电压)

有些电器产品会直接标出W数,而有些电器产品由于可适用于多种不同电压(也就是上面公式的V部份并非固定数值),则可能以电流数A标示。在电费的计算上,当每小时的电功率为1000W一度。因此若某电器产品的电功率为2000W,则其每小时耗电两度;若某电器产品的电功率为500W时,则每小时耗电05度。

那么电器产品究竟耗电量有多少呢?根据法规规定,在电器产品的某处必须贴有电功率规格书。(看看自己的电脑萤幕后方)。

而像电灯泡之类的小型产品则可能直接印在上面。

冷气机的话,则根据吨数大小不同,一般从6、700W一直到数千W都有可能。直接以电功率数W标示的就不用换算了,若以电流数A标示的话,就要套入W=AV公式计算了。例如台湾地区的电压为110V,上例中的电脑萤幕电流数为2A,则「W=2x110」,其每小时电功率为220W。

Note:实际上当电压不同时,电流数也会跟着变动。此例子仅为了说明公式方便而简化了其他方面的考量,请各位大大注意。

如果不计较损耗、误差,可直接算

耗电量所说的度是 千瓦/时,其实就是功率1kw的用电器1小时所消耗的电量。

比如200w的电脑,5个小时才用1度电

而3000w的电动机,一小时用3度电

如何计算功率为100w的电器每小时的耗电量?

因为:1千瓦1小时=1度电

所以:100瓦(01千瓦)1小时=01度电

度也就是千瓦时,是1千瓦功率的用电器执行1小时所耗的电能。100W也就是01千瓦,1个小时用电01千瓦1小时=01度。

怎样计算电器每小时耗电量

用电器的额定功率乘以用电小时数。1000瓦的用电器使用一个小时就用1°电。

空调每小时耗电量大概多少,如何计算

具体要看空调的制冷和制热功率是多少瓦,房间面积大小及密封保温条件好坏,户外环境温度高低及室内温度调节的是多少度,这些对耗电量的大小影响都很大。

比如一台一级能效的制冷量2500W的一匹空调,适合12平米左右的房间使用,制冷输入功率是650W,平均每小时的耗电量一般在04-065度之间,制热加上辅电的功率,平均每小时耗电量大约在05-13度。

IT装置功率2300瓦每小时耗电量

优质解答

“电的度数”即是电能

电能是指一段时间内电场力(或电源力)所做的功,单位是:千瓦时(kWh);

电功率是指单位时间内电场力(或电源力)所做的功,单位是:瓦特(W)

电能与电功率的关系是:电能=电功率×时间

每小时的“电的度数”(消耗的电能)=23kW×1h

=23kWh=23度

3800功率豆浆机每小时耗电量

因为1千瓦1小时就是1度,如果豆浆机连续工作一小时,38千瓦每小时就是38度。

功率:≤320 VA<BR> 每小时耗电量

耗电量:1度=1千瓦时,顾名思义,1000瓦每时

≤320 VA等于≤320 W,再除1000,得到每小时耗电量≤032度

900w的小太阳取暖器每小时耗电量如何计算?

理论上是 900/1000h 也就是说1小时09度电

一度电 就是1千瓦时 就是1000W用一个小时的耗电量

“不冒烟的钢厂”年用电量占全 社会 用电2%左右,耗电量增速连续多年在10%以上——

近日,工信部、国家发改委等六部门公布了44家2021年度国家绿色数据中心。其中,通信领域、互联网领域分别有14家和19家,占比分别为318%和432%;公共机构、能源、金融领域的数据中心数量分别为5家、1家和5家。在通信领域入围的14家单位中,东部地区占据5席,其中江苏独占3席,分别为中国电信南京吉山云计算中心二号楼、中国移动长三角(南京)数据中心和中国电信苏州太湖国际信息中心。

国家评选绿色数据中心,其背后是节能和能效提升等方面的考量。数据中心作为“不冒烟的钢厂”,其能耗和环保等方面的问题随之进入大众视野。

各地竞相布局

大数据中心除了具备数据存储的功能外,还有进行数据云计算的功能,为海量数据的分析和处理提供了强大算力。南京邮电大学数字经济研究所所长、江苏省信息化专家委员会副秘书长姚国章教授表示,如同马力之于农业时代、电力之于工业时代,算力已经成为数字经济时代的核心“底座”之一,推动着大数据中心从“瓦特”向“比特”的转化。这不仅为各行业“上云用数赋智”提供了基础性支撑,也为数据这一新生产要素的自由流动创造了可能。一项研究报告的量化数据显示,计算力指数平均每提高1个百分点,数字经济和GDP将分别增长33‰和18‰。因此,大数据中心近年来成了“香饽饽”,不少地方竞相投资建设。

2021年12月,国务院印发《“十四五”数字经济规划》,其中明确提出数据资源是目前数字经济深化发展的核心引擎,对于数字经济的统筹规划和对数据要素的高效利用是我国“十四五”期间重要的发展方向之一。

今年2月17日,“东数西算”工程正式全面启动,8大国家算力枢纽节点和10个国家数据中心集群完成布局,这是我国继南水北调、西电东送、西气东输后的第四大跨区域资源调配的超级工程。根据实施方案,将依托京津冀、长三角、粤港澳大湾区、成渝城市群,以及贵州、内蒙古、甘肃、宁夏等全国算力网络枢纽节点,统筹规划大数据中心的建设布局,引导大数据中心适度集聚并形成数据中心集群,且在集群之间建立高速数据中心直联网络,最终形成以数据流为导向的新型算力网络格局。

“东数”为何“西算”

大数据中心“一哄而上”、“东数西算”热背后的能耗和环保等问题,也随之浮出水面。大数据中心自身绿色发展的问题,越来越引起国家有关部门和地方政府的重视。

大数据中心大量的IT设备、供电设备及制冷设备,需要消耗庞大的电能。因此,大数据中心又被称为“不冒烟的钢厂”。中国信息通信研究院数据显示,2020年全国数据中心耗电量约760亿千瓦时,占全 社会 总耗电量(75110亿千瓦时)的1%。折算为二氧化碳排放量,2020年全国数据中心二氧化碳排放量近4000万吨。最新的统计显示,当前我国各类数据中心年用电量已占全 社会 用电的2%左右,耗电量增速连续多年保持在10%以上。我国很多大数据中心的电能利用效率(PUE)大于22,远高于国际先进水平。

实际上“东数西算”工程背后,也是国家节能和能效提升等方面的考量。江苏红网技术股份有限公司总经理陈军介绍,“东数西算”通俗地讲就是把东部的数据送到西部进行存储和计算。我国东部地区经济发达、人口密度大,对数据要素的产生、存储和处理需求高,但建设数据中心需要大规模的土地,同时会产生大量的能源消耗以及碳排放等问题。我国西部的一些地区风能、太阳能等绿色能源丰富,许多地区气候凉爽,也有利于数据中心进行机器散热、减少耗电、节省成本。在西部地区发展数据中心,承接东部算力需求,不仅能够解决东部地区能耗指标紧张、电力成本高、大规模数据中心开发空间受限等问题,还能把西部地区丰富的可再生能源、可利用荒地进行充分利用,同时提升区域绿色能源利用比例,就近消纳西部绿色能源。

姚国章教授认为,“东数西算”项目优化资源利用率的同时,也给西部地区在数字经济浪潮下带来新的发展机会。以实施“东数西算”工程为抓手,通过数据流引领带动资金流、人才流、技术流等跨区域流通,有助于打通我国东西部数字经济的大动脉,是实现产业聚集、区域均衡发展的重要路径。

在“东数西算”的大背景下,绿色低碳的数据中心建设也提上日程。数据中心绿色高质量发展,不仅有利于企业降低能源消耗造成的运行成本,更是促进我国碳中和目标的实现和绿色能源战略实施的必经之路。南京大学计算机系黄宜华教授介绍,目前我国各大数据中心的服务器耗电量依然巨大,经常出现一个机房成千上万台服务器满负荷运作的情况,服务器的高负荷运作在消耗巨大的电量。要如期完成碳达峰、碳中和的目标,各级政府和市场各方对一体化推动大数据中心协调发展的呼声渐高。一方面,亟须改进大数据中心的建设布局、发展模式,推动大数据中心向绿色高效、集约化发展转型;另一方面,要加快推动数据中心、云、网络之间的协同联动,避免形成数据中心“孤岛效应”,提高资源的整体利用率。

江苏的“绿色”样板

作为此次江苏当选国家绿色数据中心的三家单位之一,中国电信南京吉山云计算中心二号楼设计机柜超1700架,年总用电量约15000万千瓦时,电能利用效率(PUE)2021年为13,远低于东部地区平均能耗水平。在东部地区数据中心整体能耗高的大背景下,吉山云计算中心是如何走上绿色发展之路的呢?该中心负责人介绍,首先,为了实现节能目标,中心秉持“绿色设计先行”的理念,采用水冷式中高水温中央空调制冷系统。80%的机房采用水冷列间空调,冷冻水直接进入机房换热,减少中间损耗。20%的机房安装热管背板空调,在保证核心机房不进水的前提下,减少压缩机损耗。同时,尽可能采用自然冷源。设置板式换热器,冬季采用自然冷源,根据室外温度灵活调整冷冻水系统的供回水温度,增加自然冷源的利用时长,减少冷机启动时长,有效降低空调系统能耗。其次,中心完善能源管理系统,提供可实时显示各系统及主要设备能源使用情况的节能分析手段,通过能耗分析发现数据中心存在的节能盲点,有针对性地提升数据中心节能水平。

此外,中心还建立健全了能源管理制度,使用节水型用水器,开展第三方节能诊断与评测,进行综合节能技术改造等。经过一系列措施技术和管理创新,二号楼电能利用效率(PUE)由2019年的141优化为2021年的13。中国电信南京吉山云计算中心负责人表示,未来吉山云计算中心还将继续积极响应国家建设低碳数据中心要求,在园区使用光伏、储能等绿色节能技术,并力争在2025年以前将PUE降至125,有力支撑“东数西算”长三角国家枢纽节点建设。

暗战中的机遇与挑战

“东数西算”不是简单地将东部的算力需求全部搬到西部,而是需要根据数据存储地以及算力的需求匹配相应的枢纽节点,实现资源配置中的效能最优化方案。“东数西算”的背后,一场智算中心的争夺战其实早已拉开序幕。 科技 部在2020年年底发文称,人工智能计算中心是智慧城市的“新基建”,是一个非常重要的基础设施。从2020年开始,全国掀起了智算中心的建设热潮,算力的竞争已成为城市之间暗中角力的一个重要领域。据统计,从2021年1月1日到2022年2月15日,全国共有至少26个城市在推动或完成当地智算中心的建设,其中就包括南京智能计算中心。

今年2月,“东数西算”上升为国家战略,国家发改委等部门确定了8个国家算力枢纽节点,并规划了10个国家数据中心集群。国家发改委等部门在《全国一体化大数据中心协同创新体系算力枢纽实施方案》等文件中指出:“原则上,对于在国家枢纽节点之外新建的数据中心,地方政府不得给予土地、财税等方面的优惠政策。”其背后透露出的对大数据中心进行集约化管理的信号十分明显,目的是解决数据中心行业目前存在的资源错配、能耗高、电力使用效率低等问题。对此,姚国章教授认为,江苏和南京在这方面机遇与挑战并存。

南京有南京大学等3所高校开设了人工智能学院,中科院计算所在南京建立了创新中心,姚期智院士率清华团队在南京建立了图灵人工智能研究院,创新工场AI工程院组建了南京研究院;寒武纪、浪潮、华为等多家国内知名企业助力南京数字化建设。目前南京已集聚人工智能企业近300家,核心产业规模超过60亿元,带动相关产业规模近800亿元。姚国章教授认为,江苏和南京具备在数字经济领域发力和作为的雄厚基础,以强劲算力助力长三角地区的算力枢纽节点建设,更好地汇聚产业生态,提升长三角人工智能产业的整体竞争力。根据《南京市打造人工智能产业地标行动计划》,到2025年南京人工智能核心产业规模将达到500亿元,带动相关产业规模5000亿元,发展成为全省第一、全国前三、全球有影响力的人工智能创新应用示范城市。

以上就是关于机房空调怎么省电全部的内容,包括:机房空调怎么省电、怎样知道我的电脑的耗电量是多少、IT设备功率2300瓦每小时耗电量等相关内容解答,如果想了解更多相关内容,可以关注我们,你们的支持是我们更新的动力!

欢迎分享,转载请注明来源:内存溢出

原文地址: https://outofmemory.cn/langs/8850808.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-04-22
下一篇 2023-04-22

发表评论

登录后才能评论

评论列表(0条)

保存