SegmentFault 思否报道丨公众号:SegmentFault
是他,还是那个男人,那个熟悉的皮夹克。
5 月 14 日 晚,黄仁勋在厨房召开了英伟达 GTC 2020 线上发布会。由于新冠病毒疫情影响,英伟达原计划的现场活动被迫取消,定于 3 月 24 日通过媒体发布的新闻稿也未见踪影。千呼万唤中,黄仁勋终于在烤箱前和大家见面了。
本届 GTC 从预热开始就不走寻常路,黄仁勋在大会前一天晒出了自己从烤箱里拿出了 全新的安培(Ampere)架构 GPU NVIDIA A100 。
令人颇感意外的是,虽然无法举办线下活动,英伟达竟然连线上直播都懒得办,直接播放了黄仁勋在自家厨房里录制的视频完成了新品发布。果然是手里有「硬货」就不在乎形式了。
英伟达的首款安培架构 GPU 可以算「史上最强」了,基于 7nm 工艺制程,拥有 540 亿晶体管,面积为826mm²,与 Volta 架构相比性能提升了 20 倍 ,既可以做训练也可以做推理。
NVIDIA A100 具有 TF32的第三代 Tensor Core 核心,能在不更改任何代码的情况下将 FP32 精度下的 AI 性能提高 20倍,达到195万亿次/秒 。
多实例 GPU-MG 可将单个 A100 GPU 分割为 7 个独立的 GPU,根据任务不同提供不同的计算力,实现最佳利用率和投资回报率的最大化。
NVIDIA A100 新的效率技术利用了AI数学固有的稀疏性,优化之后性能提升了一倍。
英伟达将 NVIDIA A100 的特性总结为以下 5 点:
黄仁勋说:“Ampere架构的突破性设计为英伟达第八代GPU提供了迄今为止最大的性能飞跃, 集 AI 训练和推理于一身,并且其性能相比于前代产品提升了高达 20 倍 。这是有史以来首次,可以在一个平台上实现对横向扩展以及纵向扩展的负载的加速。A100 将在提高吞吐量的同时,降低数据中心的成本。”
NVIDIA A100 是第一个基于 NVIDIA 安培架构的 GPU,提供了在 NVIDIA 八代 GPU 里最大的性能提升,它还可用于数据分析,科学计算和云图形,并已全面投产并交付给全球客户。
全球 18 家领先的服务提供商和系统构建商正在将 NVIDIA A100 整合到他们的服务和产品中,其中包括阿里云、AWS、百度云、思科、Dell Technologies、Google Cloud、HPE、Microsoft Azure和甲骨文。
黄仁勋还介绍了基于 NVIDIA A100 的第三代 AI 系统 DGX-A100 AI。DGX-A100 AI 是世界上第一台单节点 AI 算力达到 5 PFLOPS 的服务器 ,每台 DGX A100 可以分割为多达 56 个独立运行的实例,还集合了 8 个 NVIDIA A100 GPU,每个 GPU 均支持 12 路 NVLink 互连总线。
据了解,与其他高端 CPU 服务器相比,DGXA100 的 AI 计算性能高 150 倍、内存带宽高 40 倍、IO 带宽高 40 倍。
黄仁勋说:“AI已经被应用到云计算、 汽车 、零售、医疗等众多领域,AI算法也正变得越来越复杂和多样。ResNet模型的算力需求从2016年到现在已经增加了3000倍,我们需要更好的解决方案。”
如此强大的 DGX-A100 AI 售价自然也不便宜,标价 199 万美元,约合人民币 141 万元。
此外,黄仁勋还提到了英伟达新一代 DGXSuper POD 集群,由 140 台DGXA100系统组成,AI算力达 700 Petaflops,相当于数千台服务器的性能 。
据了解,首批 DGXSuper POD 将部署在美国能源部阿贡国家实验室,用于新冠病毒疫情相关的研究。
除了以上两款重磅产品,黄仁勋还宣布推出了 NVIDIA Merlin,这是一个用于构建下一代推荐系统的端到端框架,该系统正迅速成为更加个性化互联网的引擎。Merlin将创建一个 100 TB 数据集推荐系统所需的时间从四天减少到 20 分钟。
英伟达此次还推出了众多 AI 领域相关产品,包括 以太网智能网卡 Mellanox ConnectX-6 Lx SmartNIC、EGX 边缘 AI 平台和一系列软件更新扩展。
1以太网智能网卡 Mellanox ConnectX-6 Lx SmartNIC
ConnectX-6 Lx 是业界首个为 25Gb/s 优化的安全智能网卡,可提供两个 25Gb/s 端口或一个 50Gb/s 端口。
2EGX 边缘 AI 平台
EGX Edge AI 平台是首款基于 NVIDIA 安培架构的边缘 AI 产品,可接收高达 200Gbps 的数据,并将其直接发送到 GPU 内存进行 AI 或 5G 信号处理。
3Spark 30
英伟达还宣布在 Spark 30 上支持 NVIDIA GPU 加速,基于 RAPIDS 的 Spark 30,打破了提取,转换和加载数据的性能基准。它已经帮助 Adobe Intelligent Services 将计算成本降低了90%。
4NVIDIA Jarvis
黄仁勋在发布会中详细介绍了 NVIDIA Jarvis,这是一个新的端到端平台,可以充分发挥英伟达 AI 平台的强大功能,创建实时多模态对话式 AI。
5Misty 交互 AI
现场演示中,一个名为 Misty 的 AI系统展示了实时理解并回答一系列有关天气的复杂问题的交互过程。
自动驾驶方面,英伟达也将安培架构嵌入了新的 NVIDIA DRIVE 平台。据了解,小马智行、法拉第未来等自动驾驶企业已宣布采用 NVIDIA DRIVE AGX 计算平台。
英伟达的 NVIDIA Isaac 软件定义的机器人平台还将用于宝马集团工厂。英伟达机器人技术全球生态系统涵盖配送、零售、自主移动机器人、农业、服务业、物流、制造和医疗保健各个行业。
英伟达这场时隔 3 年的发布会可谓诚意满满,首次推出的安培架构给足了惊喜,性能提升 20 倍的 NVIDIA A100 GPU 可谓性能飞跃。
虽然发布会并不是现场直播,但依旧爆点十足。一台就比千台强的 DGX-A100 AI 也印证了黄仁勋那就经典名言“买的越多,赚的越多”。英伟达的 AI 解决方案已经覆盖了各行各业,强大的 AI 生态正在形成。
中国工程院院士倪光南曾表示:「芯片设计门槛极高,只有极少数企业能够承受中高端芯片研发成本,这也制约了芯片领域创新。」
英伟达在本届 GTC 上推出的安培架构和基于此的一系列 AI 平台无一部显示了一个 AI 芯片巨头的实力,又一次树立了性能标杆。
根据 Gartner 的预测数据 ,未来 5 年内全球人工智能芯片市场规模将呈飙升趋势 ,自 2018 年的 427 亿美元 ,升高至 343 亿美元 ,增长已超过 7 倍,可见 AI 芯片市场有较大增长空间。
尽管与西方发达国家相比,中国的 AI 芯片研发还存在一定差距,但过去两年中,中国 AI 芯片初创企业已获得了数亿美元的资金。华为等公司也开发了令人印象深刻的芯片设计。
但芯片开发极具复杂性,中国人才的短缺以及缺乏多家全球销售排名前 15 位的中国半导体公司的情况表明,中国仍需要取得重大进展,才能在半导体领域与美国匹敌。
英伟达是全球有名的显卡制造商,产品质量过硬,是知名品牌。
英伟达:
NVIDIA(全称为NVIDIA Corporation,NASDAQ:NVDA,官方中文名称英伟达),创立于1993年1月,是一家以设计智核芯片组为主的无晶圆(Fabless)IC半导体公司。Nvidia 是全球图形技术和数字媒体处理器行业领导厂商,NVIDIA的总部设在美国加利福尼亚州的圣克拉拉市,在20多个国家和地区拥有约5700名员工。公司在可编程图形处理器方面拥有先进的专业技术,在并行处理方面实现了诸多突破。
NVIDIA亦会设计游戏机芯片,例如Xbox和PlayStation 3。近几年还参与了手机cpu的开发和制作,如Nvidia Tegra3。 NVIDIA最出名的产品线是为游戏而设的GeForce显示卡系列,为专业工作站而设的Quadro显卡系列,和用于计算机主板的nForce芯片组系列。
首先你必须明白 现在世界上出名的显卡芯片制造商一个是nvidia 另一个是AMD(收购ATI之后AMD也在研发显示芯片)至于intel这些不提也罢 呵呵 你可以这样理解 这两家公司只是在做标准 做显卡标准 这些企业我们姑且称之为一流企业
然后二流企业就是做显卡的 他们要生产显卡 首先要从Nvidia或者AMD买显示芯片 然后根据他们制定的标准来生产和销售显卡 而做这个领域的企业就多了 你说的昂达就是其中一个 当然 要深究下去的话 昂达也只是一个贴牌企业 也就是显卡由代工厂定牌生产 然后贴上昂达的品牌在市面上卖 现在绝大部分企业都是这样的运营模式 有些人称这些企业生产的显卡为“二流显卡” 对应的就是自己有自己的工厂的“一流显卡” 像蓝宝石、索泰(其实就是蓝宝的子公司)、影驰、XFX等 这些企业自己生产显卡 而且品质不俗
1、经销商:顾名思义,指的是从企业进货的商人。他们买货绝不是自己用,而是转手卖出去,他们只是经过手,再销售而已,关注的是利差,而不是实际的价格。企业对经销商不是赊销,而是收到了钱的。这个商是指商人,也就是一个商业单位。所以“经销商”,一般是企业,或者是从企业拿钱进货的商业单位。因此,对经销商的调查几乎可以涉及到所有调查内容,也正是这样,对经销商的调查就显得异常重要。
2、经销商是从事商品交易业务,在商品买卖过程中拥有产品的所有权的中间商。经销商这个在中国市场上既传统又中坚的渠道力量,正在遭遇渠道扁平化浪潮和新生渠道力量的考验,在重重压力下经销商或被动或主动地在业务发展战略上作出了适应性调整:一是部分经销商开始向生产商贴牌甚至自行投资建厂生产自有品牌产品,使渠道资源效益发挥最大化;二是部分经销商开始进入零售领域,向渠道下游延伸,稳定并巩固自身在市场中的地位;三是最大化获取优势产品资源,以产品分担经营成本和经营风险,追求企业经营的品类规模。遗憾的是,更多的经销商正在成为生产商的附庸,完全被生产商“套牢”,更在终端零售商与生产商的双重“挤压”下困难重重,更为可怕的是经销商中的弱势群体正在不断地被淘汰出局。
英伟达NVIDIA代理有很多,蓝海大脑就是其中一家。这是一家异构计算的高性能超算平台公司⌄专注为企业数据中心、云计算、人工智能和边缘计算等领域的高性能服务商。并且主营产品液冷服务器、GPU深度学习服务器、水冷工作站、显卡服务器、计算服务器、高性能服务器等产品均搭建英伟达NVIDIA GPU 显卡,采用水冷散热技术,广泛应用于数据分析、数据挖掘、人工智能、数字孪生、基因大时代、智能制造等领域。
作为半导体行业最大的设计和知识产权供应商,ARM 将其技术授权给英特尔、高通和三星电子等客户,而这些公司与英伟达存在业务上的激烈竞争, 英伟达的收购案可能遭遇行业对手的强烈反对。
如果ARM变为一家美国公司,那么这会加剧ARM客户对于国际贸易风险的担忧。 因此,外界普遍认为,这项交易很可能无法通过包括在英国、中国、欧盟等多国监管机构的批准。 那么,明知收购ARM可能引起"众怒",英伟达为何还要走出这一步呢?最终收购案的结局将会如何?
在英伟达宣布收购ARM后的几小时后,韩国和中国国内立马出现了质疑的声音。韩国半导体与显示技术学会会长Park Jea-gun表示, 这笔交易将加剧英伟达与三星、高通等公司在自动驾驶和其他未来芯片技术方面的竞争,并引起市场对ARM可能会提高竞争对手专利许可费的忧虑。
一位中国芯片行业高管表示,如果ARM成为美国子公司,那么与ARM合作的美企在华很可能更难销售他们的芯片。
反对的不只有中韩业内人士,还有英国。曾经的ARM联合创始人Hermann Hauser公开反对,认为英国电子产业有数百家公司,其中许多公司都使用ARM的技术, 它们的产品也出口到全球市场,一旦收购完成,英国公司出售产品到哪都要遵循美国的规定,这将是个"灾难"。
ARM在芯片行业到底扮演什么特殊角色,为何能引起业内人士一片担忧?
芯片的架构设计一直被誉为芯片行业的"金字塔尖",开发难度巨大。 架构是芯片设计的基础,犹如一座建筑里的结构设计,只有具备稳定可靠的结构设计,才能建造各式各样的房子。 在芯片领域,架构对芯片的整体性能起决定性作用, 不同架构的芯片在同样的芯片面积、频率下,性能甚至可以出现几倍的差距。 目前,全球芯片领域的主流架构主要是ARM公司主导的ARM架构和英特尔主导的X86架构。
在移动互联网时代到来之前,英特尔开发的X86架构以高效能的优势,逐渐在服务器、PC机流行起来。 1978年6月8日,英特尔生产出世界上第一款16位的微处理器"i8086",该处理器的出现同时开创了一个使用X86架构的新时代。 这奠定了后续英特尔在计算机处理器的霸主地位。
不过,随着人们对手机等移动设备需求显著提升,全球芯片领域的主流架构市场孕育巨大变化。 英国ARM 公司创立于上世纪 90 年代,其创立初衷是做"结构简单、功耗低、价格便宜"的芯片 ,并最终做出了理想中的首款CPU。后来的ARM架构,指的就是设计这款CPU时采用的架构。
虽然ARM的研发方向与英特尔不同,但在英特尔的强大统治下,ARM的日子并不好过。在这个情况下 ,ARM决定改变他们的商业模式,不再像英特尔一样,完成整个芯片的设计、制造、封装等环节,而是专做IP授权,即将芯片设计方案转让给其他公司 ,剩下的由购买方自己去完成。万万没想到,这种模式开创了属于ARM的全新时代。 越来越多的公司参与到这种授权模式中,与ARM建立了合作关系。
随着移动智能时代的到来, ARM的芯片架构凭借低功耗、简单等优势受到市场的追捧,因为手机不像电脑需要X86架构来支撑强大的性能,巨大的智能手机出货量使ARM 在芯片领域得到极大普及 ,到 2010 年,ARM 已经成为移动设备最主流的选择。有数据显示, 如今全世界超过95%的智能手机和平板电脑都采用ARM架构,高通、苹果、华为等企业的芯片也无一例外都采用了ARM架构。 同时,ARM基于整个产业链的架构技术也在迅速升级。
在受主流市场欢迎的情况下,ARM架构甚至对X86架构的主导地位发生威胁。 2012年,微软开始尝试让Windows 运行在基于ARM架构的处理器上;今年,苹果宣布 Mac要全部切换到基于ARM 架构的自研芯片。 ARM架构对芯片设计行业的统治力可见一斑,一旦其被英伟达所控制,对很多竞争对手带来的影响不可小觑。
作为全球最大的GPU(图形处理器)设计和制造商, 过去英伟达的业务一直面向 游戏 行业,为市场提供显示芯片,英伟达一度是PC时代的"显卡之王",占全球市场份额曾高达70% 以上,为推动 游戏 行业发展发挥巨大作用。2015年,该公司的销售额几乎全部来自 游戏 用半导体。
不过,随着人工智能时代的到来,大型数据中心对人工智能芯片的需求加速扩张,英伟达的业务开始考虑转向数据中心。在数据中心这种应用场景下, 英伟达领先的GPU并行处理能力使其成为行业训练人工智能系统等数据密集型业务的主要引擎,并带动了公司数据中心业务大幅增长。
在截至7月26日的第二财季,英伟达实现收入387亿美元,同比增长50%; 其中,英伟达的数据中心业务收入首次超过 游戏 业务,达到175亿美元,大幅增长167%。 拉长时间来看,英伟达的数据中心用半导体营收在5年内更是猛增了24倍。
得益于新业务表现优异,今年英伟达的股价一路高涨。今年7月8日,英伟达取代英特尔,成为美国市值最高的芯片制造商。 9月16日,英伟达的总市值达到3209亿美元,排在全球半导体企业第3,仅次于台积电和三星。
现在大多数数据中心的服务器都是基于X86架构的CPU构建,有 AI 计算需求。 英伟达的GPU擅长并行计算,非常适合 AI 的计算需求,但仍不能满足数据中心的需求,比如数据中心的很多任务还是需要CPU来完成。而 ARM拥有设计CPU的经验优势和架构技术,能帮助英伟达研发出高性能、更符合市场要求的GPU芯片处理器。如果能够收购芯片设计公司ARM, 英伟达有望巩固在人工智能半导体领域的霸主地位。
英伟达创办人兼首席执行官黄仁勋曾表示:"整合英伟达与ARM的实力,将创造出一家在AI 时代站稳脚步的企业。" "对于ARM的产业生态系统而言,此次结合将运用英伟达引领全球的GPU 和AI技术扩大其知识产权组合。"
事实上,英伟达有意收购ARM早有端倪。2019年3月,英伟达就表示正在和ARM共同开发人工智能专用芯片; 2019年6月,在国际超算大会上,英伟达宣布将利用其芯片与使用ARM架构的CPU协作打造超级计算机。
今年以来,英伟达更是频频发起收购行动,表露其在AI半导体领域大展拳脚的决心。今年3月11日,英伟达击败对手英特尔, 宣布收购以色列芯片厂商Mellanox Technologies,以扩大数据中心和人工智能业务。 7月12日,英伟达宣布收购Deep Instinct公司,加强其在人工智能领域的优势。除了上述收购之外,英伟达还投资了包括Datalogue、ABEJA、Fastdata等在内的八家国际人工智能领域的公司。
虽然英伟达收购ARM主要是出于其深耕AI半导体的雄心,但这也能够为英伟达打开更广阔的市场前景, 发力AI半导体可能只是个开端,英伟达的终极目标应该是成为芯片领域的霸主。
在智能手机兴起时,英伟达曾涉及移动芯片Tegra的设计,但由于与高通、三星在竞争中落了下风,这成为了英伟达的一大败笔。 在新智能时代来临之际,英伟达在机器人和自动驾驶 汽车 等其他人工智能芯片市场也很活跃 ,目前缺少在智能手机、边缘计算、物联网等方面的芯片研发技术。 如果能成功收购ARM,英伟达还可以开发更多的新兴芯片业务,产品阵容也将更加完善,成为在芯片领域的超级公司。
这也意味着英伟达将可能与其他芯片巨头在服务器、PC、移动终端、AI以及自动驾驶和物联网等多个领域展开竞争。也因此业内普遍反感英伟达的收购行为。 而且,英伟达收购成功的后果可能是全球芯片格局变成"美国人自己的 游戏 "。
不过,英伟达在书写自己的远大宏图之前,还面临一个难以跨过的挑战——国际反垄断审批。 按照国际规定,企业有涉及并购的垄断行为,需要通过全球九个市场(包括中国)的监管审批。 英伟达的竞争对手很可能会推动国家监管部门否决这笔交易。 另外,在当前美国动用 科技 力量打压其他国家发展的背景下,这笔交易审批前景也难言乐观。英伟达预计光是审批过程可能就要长达18个月时间。
如果这笔收购交易没通过垄断审批,那么英伟达估计也不会"轻言放弃",有可能会发起联合入股行动 ,即相关的芯片需求巨头各自出资,联合控股ARM,这样的结果更为理想。比如,2012年,台积电、英特尔、三星在2012年一起入股荷兰ASML,以支持后者研发下一代的EUV光刻机。但不知道英伟达能否找到可以一起入股的竞争对手。
文 | 钟志生 题 | 曾艺 图 | 饶建宁 审 | 程远
GPU服务器属于异构计算服务器,将并行计算负载放到协处理器上来。推荐的话,那首选一定是英伟达GPU服务器,或者选择英伟达授权的官方代 理商也是可以的。国内英伟达代 理商还是比较多的,思腾合力就是其中之一,有兴趣的话你可以去了解一下。思腾合力是英伟达精英级的合作伙伴,在原厂技术资源、GPU技术上都有多年的技术积累,还是非常不错的。当前,为推进IT支撑系统集约化建设和运营,进一步发挥集中化能力优势,IT云成为运营商IT支撑系统建设的基础架构。但在IT云资源池部署过程中,服务器技术面临多个新挑战,主要体现在以下3个方面。
在性能方面,人工智能(AI)应用快速扩张,要求IT云采用高性能GPU服务器。AI已在电信业网络覆盖优化、批量投诉定界、异常检测/诊断、业务识别、用户定位等场景规模化应用。AI应用需求的大量出现,要求数据中心部署的服务器具有更好的计算效能、吞吐能力和延迟性能,以传统通用x86服务器为核心的计算平台显得力不从心,GPU服务器因此登上运营商IT建设的历史舞台。
在效率成本方面,IT云部署通用服务器存在弊端,催生定制化整机柜服务器应用需求。在IT云建设过程中,由于业务需求增长快速,IT云资源池扩容压力较大,云资源池中的服务器数量快速递增,上线效率亟需提高。同时,传统通用服务器部署模式周期长、部署密度低的劣势,给数据中心空间、电力、建设成本和高效维护管理都带来了较大的挑战。整机柜服务器成为IT云建设的另一可选方案。
在节能方面,AI等高密度应用场景的快速发展,驱动液冷服务器成为热点。随着AI高密度业务应用的发展,未来数据中心服务器功率将从3kW~5kW向20kW甚至100kW以上规模发展,传统的风冷式服务器制冷系统解决方案已经无法满足制冷需求,液冷服务器成为AI应用场景下的有效解决方案。
GPU服务器技术发展态势及在电信业的应用
GPU服务器技术发展态势
GPU服务器是单指令、多数据处理架构,通过与CPU协同进行工作。从CPU和GPU之间的互联架构进行划分,GPU服务器又可分为基于传统PCIe架构的GPU服务器和基于NVLink架构的GPU服务器两类。GPU服务器具有通用性强、生态系统完善的显著优势,因此牢牢占据了AI基础架构市场的主导地位,国内外主流厂商均推出不同规格的GPU服务器。
GPU服务器在运营商IT云建设中的应用
当前,电信业开始推动GPU服务器在IT云资源池中的应用,省公司现网中已经部署了部分GPU服务器。同时,考虑到GPU成本较高,集团公司层面通过建设统一AI平台,集中化部署一批GPU服务器,形成AI资源优化配置。从技术选型来看,目前运营商IT云资源池采用英伟达、英特尔等厂商相关产品居多。
GPU服务器在IT云应用中取得了良好的效果。在现网部署的GPU服务器中,与训练和推理相关的深度学习应用占主要部分,占比超过70%,支撑的业务包括网络覆盖智能优化、用户智能定位、智能营销、智能稽核等,这些智能应用减少了人工投入成本,提升了工作效率。以智能稽核为例,以往无纸化业务单据的人工稽核平均耗时约48秒/单,而AI稽核平均耗时仅约5秒/单,稽核效率提升达 90%。同时,无纸化业务单据人工稽核成本约15元/单,采用GPU进行AI稽核成本约0048元/单,稽核成本降低达968%。
整机柜服务器发展态势及在电信业的应用
整机柜服务器技术发展态势
整机柜服务器是按照模块化设计思路打造的服务器解决方案,系统架构由机柜、网络、供电、服务器节点、集中散热、集中管理6个子系统组成,是对数据中心服务器设计技术的一次根本性变革。整机柜服务器将供电单元、散热单元池化,通过节约空间来提高部署密度,其部署密度通常可以翻倍。集中供电和散热的设计,使整机柜服务器仅需配置传统机柜式服务器10%的电源数量就可满足供电需要,电源效率可以提升10%以上,且单台服务器的能耗可降低5%。
整机柜服务器在运营商IT云建设中的应用
国内运营商在IT云建设中已经推进了整机柜服务器部署,经过实际应用检验,在如下方面优势明显。
一是工厂预制,交付工时大幅缩短。传统服务器交付效率低,采用整机柜服务器将原来在数据中心现场进行的服务器拆包、上架、布线等工作转移到工厂完成,部署的颗粒度从1台上升到几十台,交付效率大大提升。以一次性交付1500台服务器为例,交付工作量可减少170~210人天,按每天配10人计算,现场交付时间可节省约17~21天。
二是资源池化带来部件数量降低,故障率大幅下降。整机柜服务器通过将供电、制冷等部件资源池化,大幅减少了部件数量,带来故障率的大幅降低。图1比较了32节点整机柜服务器与传统1U、2U服务器机型各自的电源部件数量及在一年内的月度故障率情况。由于32节点整机柜服务器含10个电源部件,而32台1U通用服务器的电源部件为64个,相较而言,整机柜电源部件数减少844%。由于电源部件数量的降低,32节点整机柜服务器相对于32台1U通用服务器的月度故障率也大幅缩减。
三是运维效率提升60%以上。整机柜服务器在工厂预制机柜布线,网络线缆在工厂经过预处理,线缆长度精确匹配,理线简洁,接线方式统一规范,配合运维标签,在运维中可以更方便简洁地对节点实施维护 *** 作,有效降低运维误 *** 作,提升运维效率60%以上,并大幅减少发生故障后的故障恢复时间。
液冷服务器技术发展态势及在电信业的应用
液冷服务器技术发展态势
液冷服务器技术也称为服务器芯片液体冷却技术,采用特种或经特殊处理的液体,直接或近距离间接换热冷却芯片或者IT整体设备,具体包括冷板式冷却、浸没式冷却和喷淋式冷却3种形态。液冷服务器可以针对CPU热岛精确定点冷却,精确控制制冷分配,能真正将高密度部署带到前所未有的更高层级(例如20kW~100kW高密度数据中心),是数据中心节能技术的发展方向之一,3种液冷技术对比如表1所示。
液冷服务器在运营商IT建设中的应用
液冷服务器技术目前在我国仍处于应用初期,产业链尚不完备、设备采购成本偏高、采购渠道少、电子元器件的兼容性低、液冷服务器专用冷却液成本高等问题是液冷服务器尚未大规模推广的重要原因。从液冷服务器在运营商数据中心领域的具体应用案例来看,运营商在IT云资源池规划和建设过程中,通常会对液冷服务器的发展现状、技术成熟度等进行分析论证。
考虑到目前液冷服务器规模化应用尚处于起步阶段,需要3~5年的引入期,因此暂时未在IT云资源池建设中进行大规模落地部署,但在部分地区有小规模应用,如中国移动南方基地数据中心已经开展液冷服务器试点应用,中国联通研究院也在开展边缘数据中心服务器喷淋式液冷系统的开发。未来,随着IT云建设规模、建设密度的继续攀升,以及液冷产业生态体系的逐步成熟,液冷服务器在IT云建设中将有更大的应用空间。
总体来看,运营商IT云资源池建设对服务器计算性能、延迟、吞吐、制冷、定制化、分布式部署等方面都提出了更高要求。未来,GPU服务器、定制化整机柜服务器、液冷服务器等新兴服务器技术将快速迭代,为运营商数据中心服务器技术的发展和演进带来新的思路和路径。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)