阿里巴巴首席技术官程立(鲁肃)判断,碳达峰、碳中和目标的有序推进,将会带来技术上的系统性变革,很可能催生新的技术创新与合作。目前,仅从技术创新角度阿里至少看到了“三个环”:实现企业自身发展中的减排是“内环”;助力平台企业、行业脱碳为“中环”;推动消费低碳环保是辐射范围更大的“外环”。
当大型数据中心成为通用的算力大脑,如何给计算技术脱碳,用技术解决技术发展带来的问题,已成为全球瞩目的焦点。
随着互联网公司规模越来越大,数据中心的能耗和排放量逐年走高。报告称,阿里云在过去几年开始打造相关基础设施,使用清洁能源,促进低碳生产。 2020年,阿里云自建基地型数据中心交易清洁能源电量41亿千瓦时,同比上升266%,减排二氧化碳30万吨,同比上升127%。
据称,阿里云杭州数据中心拥有全球最大的浸没式液冷服务器集群,其服务器浸泡在特殊冷却液,PUE(电源使用效率)逼近理论极限值10,每年可节电7000万度,节约的电力可以供西湖周边所有路灯连续使用8年时间;而广东河源数据中心,采用深层湖水制冷,2022年将实现100%使用绿色清洁能源,将成为阿里首个实现碳中和的大型数据中心。
该报告还给出了一个低碳等式。如果中国所有服务器都采用液冷技术,一年能节省的电接近一个三峡;如果“城市大脑”充分参与城市治堵,交通拥堵率能下降15%以上;如果快递智能装箱算法被普及,中国500亿件包裹多数都能瘦身;如果家中闲置物品能充分流通,一个流动的循环工厂将减少用户的碳足迹。
2020年,阿里巴巴开始在数字基建上加大投入,向全 社会 开放即插即用的数字化能力,一方面帮助中小企业降本提效,同时也提升了不少企业的“绿色值”。
报告中提到,阿里云协助开发的攀钢“钢铁大脑”,目前每生产1吨钢节省128公斤铁,每年可节省1700万元炼钢成本;阿里云协助垃圾焚烧发电企业瀚蓝环境提升了23%的燃烧稳定性;钉钉的无纸化办公已累计减少碳排放1100万吨,相当于固化6300平方公里荒漠……
报告称,阿里云、达摩院、钉钉等技术力量,正不断凝聚创新力助推一个多维度、全覆盖的低碳发展体系。
该报告显示,阿里巴巴在绿色消费方面积极布局:阿里巴巴正在通过菜鸟、闲鱼、饿了么、银泰,组成一条绿色消费链,构建“全生命周期绿色消费场景”。
数据显示,从2014年以来,菜鸟使用电子面单的包裹达到1000多亿个,节省纸张4000亿张,节约成本200亿元,绿色回收箱覆盖315个城市,超过1亿纸箱实现了循环再利用;饿了么累计送出无餐具订单4亿单,减少碳排放达6400吨。
从2017年算起,闲鱼回收旧衣5万多吨、旧书2370万本、手机366万台、大家电145万台,仅在2020年,闲鱼用户就上架10亿件闲置用品;银泰喵街则在2020年累计回收空瓶20000多个,通过收银无纸化、发票小票电子化,节省1600吨纸。
据悉,今年2月,阿里巴巴已发行10亿美元的20年期“绿色债券”,募集资金专门用于包括绿色建筑、能源效率、新冠肺炎危机应对、可再生能源、循环经济以及设计等领域,它也成为亚洲互联网行业中首家发行绿债的企业。
“阿里巴巴会尽快推出碳中和技术发展路线图。实现碳中和,要走技术路线。这不是哪一个层面的单打独斗,需要全 社会 的共同努力”,程立说道。
更多内容请下载21 财经 APP亿万克为实现“碳达峰、碳中和”,贡献自身价值。液冷技术由此迎来关键发展契机。在各类散热技术中,液冷技术凭借绿色环保、节能低耗、安全可靠等优势,成为引领节能变革的重大技术,助力数据中心实现更低的TCO与更高的投资收益,成为绿色节能数据中心的发展方向。为推动绿色低碳循环发展经济体系的落地,亿万克一直深度参与节能技术的研究与应用,为“碳达峰、碳中和”和生态文明建设贡献自身价值。感兴趣的话点击此处,免费学习一下
亿万克冷板式液冷:二次侧CDU(冷媒分配单元)把冷却液通过液冷管路运送到冷却机柜的每个节点中,冷却液通过节点液冷板把发热量大的部件(如CPU、GPU)热量吸收带走,然后通过液冷管路返回到CDU;其余少量热量通过节点中风扇模组带走。同时一次侧冷却水系统把冷冻水通过管路运送到CDU进行热交换,使得冷却液温度降低后循环到冷却机柜;吸收热量的冷冻水通过管路循环回到冷却塔。
亿万克浸没式液冷:从换热器流出的冷却液温度为40℃,通过蓝色管路送入Tank机柜中,热交换后冷媒升温至45℃后,经红色管路回到换热器。二次侧换热器把冷却液通过液冷管路运送到Tank机柜中,冷媒吸收热量,然后通过液冷管路返回到换热器。同时一次侧冷却水系统把冷冻水通过管路运送到换热器进行热交换,使得冷媒温度降低后循环到Tank机柜;吸收热量的冷冻水通过管路循环到冷却塔。液冷数据中心是指应用液冷技术和液冷服务器等设备的数据中心,与传统风冷服务器相比,液冷服务器的热量导出方式不同。
蓝海大脑作为专业数据中心厂商之一认为液冷数据中心节能减排技术主要有以下几点:
1、充分利用机房楼顶空间,清洁的太阳能光伏直接并网发电技术,即发即用,在节能的同时还极大减少污染物排放。
2、液冷数据中心冷冻站通过板式换热系统,实现极致水侧免费冷却,华北地区全年超过94%的时间可利用室外自然冷源免费冷却。
3、采用AHU(Air Handle Unit)风墙冷却技术,通过与高温耐腐蚀服务器配合,采用全新气流组织方案,解决了空气污染及腐蚀难题,全年100%实现风侧免费冷却。
4、自研“蜂巢”预制模块技术,采用无架空地板设计,全面支持整机柜部署,在保证高质量交付的同时,成本持续下降,建设工期缩短一半。
5、液冷数据中心污水回收再利用技术,冷却水系统节水率为448%,液冷数据中心园区年均节水量可达到48万吨。
6、采用共享电源、共享风扇架构,部件全部标准化、模块化、一体化,支持40摄氏度环境温度长期运行。总拥有成本(TCO)降低15%~35%,交付效率提升20倍,日可交付能力超过1万台。
7、深度学习服务器集群全面混部并采用智能流量调度系统,大幅提升服务器利用率,降低冗余服务器数量⌄通过智能液冷数据中心节电技术,在同样供电能力下,可增加25%以上的算力。
8、智能决策运维平台,由监控系统、统一管理平台、大数据分析平台、策略决策平台四大模块组成。其故障定位准确率达92%,停电恢复时间由10分钟缩短到30秒。
9、随着液冷技术发展,PUE值更低,优势更为突出。吕天文给记者算了一道数学题:在我国现阶段,终端用户每使用1kWh 电能,火力发电厂就要排放 086kg 的二氧化碳,液冷 PUE(12)低于传统风冷 PUE(18)至少50%,意味着众多数据中心的能耗,能够至少减少50%,碳排放量也将减少50%。
蓝海大脑液冷数据中心机柜冷板式、浸没式两种液冷数据中心解决方案,具有高性能、高密度、扩展性强、低碳绿色节能等特点。液冷机柜支持4~8台液冷服务器,每台液冷服务器支持1~16块 GPU显卡,适用于深度学习训练及推理、生命科学、医药研发、虚拟仿真等场景,液冷解决方案覆盖服务器、水冷工作站、数据中心等多种产品形态。
型号 蓝海大脑液冷解决方案
英特尔
处理器 Intel Xeon Gold 6240R 24C/48T,24GHz,3575MB,DDR4 2933,Turbo,HT,165W1TB
Intel Xeon Gold 6258R 28C/56T,27GHz,3855MB,DDR4 2933,Turbo,HT,205W1TB
Intel Xeon W-3265 24C/48T 27GHz 33MB 205W DDR4 2933 1TB
Intel Xeon Platinum 8280 28C/56T 27GHz 385MB,DDR4 2933,Turbo,HT 205W 1TB
Intel Xeon Platinum 9242 48C/96T 38GHz 715MB L2,DDR4 3200,HT 350W 1TB
Intel Xeon Platinum 9282 56C/112T 38GHz 715MB L2,DDR4 3200,HT 400W 1TB
AMD
处理器 AMD锐龙Threadripper Pro 3945WX 40GHz/12核/64M/3200/280W
AMD锐龙Threadripper Pro 3955WX 39GHz/16核/64M/3200/280W
AMD锐龙Threadripper Pro 3975WX 35GHz/32核/128M/3200/280W
AMD锐龙Threadripper Pro 3995WX 27GHz/64核/256M/3200/280W
AMD锐龙Threadripper Pro 5945WX 41G 12核/64M/3200/280W
AMD锐龙Threadripper Pro 5955WX 40G 16核/64M/3200/280W
AMD锐龙Threadripper Pro 5965WX 38G 24核/128M/3200/280W
AMD锐龙Threadripper Pro 5975WX 36G 32核/128M/3200/280W
AMD锐龙Threadripper Pro 5995WX 27G 64核/256M/3200/280W
显卡 NVIDIA A100×4, NVIDIA GV100×4
NVIDIA RTX 3090×4, NVIDIA RTX 3090TI×4,
NVIDIA RTX 8000×4, NVIDIA RTX A6000×4,
NVIDIA Quadro P2000×4,NVIDIA Quadro P2200×4
硬盘 NVMe2 SSD: 512GB,1TB; M2 PCIe - Solid State Drive (SSD),
SATA SSD: 1024TB, 2048TB, 5120TB
SAS:10000rpm&15000rpm,600GB,12TGB,18TB
HDD : 1TB,2TB,4TB,6TB,10TB
外形规格 立式机箱
210尺寸mm(高深宽) : 726 x 616 x 266
210A尺寸mm(高深宽) : 666 x 626 x 290
210B尺寸mm(高深宽) : 697 x 692 x 306
声卡:71通道田声卡
机柜安装 : 前置机柜面板或倒轨(可选)
电源 功率 : 1300W×2; 2000W×1
软件环境 可预装 CUDA、Driver、Cudnn、NCCL、TensorRT、Python、Opencv 等底层加速库、选装 Tensorflow、Caffe、Pytorch、MXnet 等深度学习框架。
前置接口 USB32 GEN2 Type-C×4
指承灯电和硬盘LED
灵动扩展区 : 29合1读卡器,eSATA,1394,PCIe接口(可选)
读卡器 : 9合1SD读卡器(可选)
模拟音频 : 立体声、麦克风
后置接口 PS2接口 : 可选
串行接口 : 可选
USB32 GEN2 Type-C×2
网络接口 : 双万兆 (RJ45)
IEEE 1394 : 扩展卡口
模拟音频 : 集成声卡 3口
连接线 专用屏蔽电缆(信号电缆和电源电缆)
资料袋 使用手册、光盘1张、机械键盘、鼠标、装箱单、产品合格证等所谓液冷,是指通过某种液体,比如水、氟化液或是某种特殊的不导电的油,来替代空气,把CPU、内存条、芯片组、扩展卡等器件在运行时所产生的热量带走。其工作方式大致可以分为两种,一种是间接的冷板方式,即器件本身不直接接触液体,而是先把热量传输给装有液体的铜制冷板,再通过液体循环带出设备,由于冷板只能覆盖部分发热元件,其他元件的热量仍然需要风扇来将热量带出去;另一种是直接的浸没方式,即把器件甚至是整机直接浸泡在液体中,再通过液体循环把热量带出去,完全不需要风扇。打个不太恰当但可能很形象的比喻,前者象是把铜壶放在电炉上烧水,后者是在用热得快烧水,前者是对风冷方式的改良,是早期数据中心液冷技术向单机系统的迁移,后者则显然更具革命性。
据国 家发 改委,全国一体化大数据中心体系完成总体布局设计,“东数西算”工程正式全面启动。此前,我国首批数据中心液冷系列行业标准正式发布,将于2022年4月1日起正式实施,腾讯、华为等参与起草。有效填补了当前国内外数据中心液冷行业标准的空白。
数据中心最主要的部分为服务器、散热系统、通信设备以及照明系统,其中散热系统耗能占数据中心总能耗约40%。高密度计算正促使数据中心液冷技术兴起。浸没式液体冷却的优势显著,相对于传统风冷数据中心能耗降低90%-95%,所占的空间体积可减小至风冷系统的1/3,换热能力强,能够满足超高热流密度器件的散热需求。市场分析认为,液冷不仅是制冷方式的改变,更可能变革整个数据中心生态。尤其在“新基建”的助推之下,液冷技术商用或将实现跨越式发展。据赛迪顾问预测,到2025年中国液冷数据中心市场整体规模保守估计为12832亿元,乐观估计为13303亿元。浸没式液冷数据中心凭借其优良的制冷效果,市场份额渗透率不断提高,到2025年预计可达40%以上。
A股上市公司中,
巨化股份 成功开发出了高性能大数据中心设备专用的巨芯冷却液,填补了国内高性能大数据中心专用冷却液的空白,主要性能指标与国外垄断产品相当。
英维克 表示,液冷技术在加速渗透,不仅在数据中心领域,在储能、高密度算力等多个下游行业领域均是如此,公司已推出液冷全链条解决方案。
申菱环境 表示,服务华为业务领域在温控散热,包括各类精密空调,包括蒸发冷却系统和液冷系统等,华为多年来是公司第一大客户。
当今个人计算机散热领域中,风冷散热器虽然基本脱离了高噪音暴力散热的怪圈,但却普遍朝着大体积,多热管,还有超重量的方向发展,这对用户在散热器的实际使用和安装方面带来了很大不便,同时也对电脑配件的承重承压能力带来很大的考验。鉴于上述后风冷时代所出现的困境,液冷散热器渐渐的被广大电脑用户所接受。作为一种成熟的散热技术,液冷散热方式一直以来都被广泛应用于工业途径,如汽车,飞机引擎的散热。将液冷散热技术应用于计算机领域其实并非是因为风冷散热已经发展到了尽头,而是由于液体的散热速度远远大于空气,因此液冷散热器往往具备不错的散热效果,同时在噪音方面也能得到很好的控制。由于在散热效率和静音等方面有着的种种优势,在计算机风冷散热流行不久后,液冷散热也随之出现。
令人可喜的是,时至今日,计算机领域的液冷散热正在普及开来,这种状况归根结于液冷的安全性和稳定性有了很大的进步。一套典型的水冷散热系统必须具有以下部件:水冷块、循环液、水泵、管道和水箱或换热器。水冷块是一个内部留有水道的金属块,由铜或铝制成,与CPU接触并将吸收CPU的热量。循环液由水泵的作用在循环的管路中流动,如果液体是水,就是我们俗称的水冷系统。吸收了CPU热量的液体就会从CPU上的水冷块中流走,而新的低温的循环液将继续吸收CPU的热量。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)