独家 | 寒武纪二代芯片发布在即,提前揭秘如何挑战英伟达!

独家 | 寒武纪二代芯片发布在即,提前揭秘如何挑战英伟达!,第1张

「初创公司要贸然打入云端市场,简直就是自寻死路」。

长久以来,云端的数据中心市场被视为创业公司的禁地,因为英特尔、英伟达、AMD 等巨头林立,竞争太过凶残。

但近年来,云计算势不可挡,云端芯片市场呈现爆发式增长,不乏勇者前来破局。

作为一家发源于中科院计算所、背靠多家「国字辈」资本、估值已经来到 30 亿美金的硬核创业公司,寒武纪挑战云端市场的底气十足。

2018 年 5 月,寒武纪发布首颗云端 AI 芯片,并对外透露获得中国前三大服务器浪潮、联想、曙光的订单。据机器之心了解,滴滴、海康威视也已经成为寒武纪的客户。

与此同时,寒武纪成数亿美元 B 轮融资。据机器之心了解,目前寒武纪的估值约为 30 亿美元,与今年 2 月完成 6 亿美元融资后成为「全球最具价值的 AI 芯片公司」的地平线不相上下。

一年后,寒武纪二代芯片已经箭在弦上,这颗积蓄了中科院计算所研发实力四年之久的二代或将为行业带来不小震荡。

机器之心独家获悉,寒武纪二代云端芯片或将于本月公布,同时我们采访到寒武纪技术研发相关知情人士、寒武纪云端芯片客户等多方信源,提前揭秘关于该颗芯片的细节亮点和核心技术。

这回有了中文名

据机器之心了解,寒武纪二代云端 AI 芯片代号为「MLU270」,延续上一代芯片「MLU170」的 MLU(Machine Learning Unit)系列。今年初,寒武纪已经为旗下芯片注册两大中文商标名,分别是「思元」、「玄思」。综上,寒武纪二代云端 AI 芯片中文名为「思元 270」。

在今年的新品议程表上,虽然还名列有其他芯片,但「思元 270」及其板卡将会是重头戏。这也表明寒武纪将从终端向华为等品牌商授权 IP 的模式,转向主打云端市场的芯片方案提供商。

在芯片架构方面,寒武纪二代芯片将从上一代的「MLUv01」升级为「MLUv02」。考虑到视频数据正呈现爆炸性增长,成为数据中心的任务主流,寒武纪在「思元 270」里内建视频解码单元,瞄准海量的视频处理市场专门配置。

据机器之心了解,寒武纪「思元 270」在今年年初研制成功,制程工艺方面明显抛弃了此前终端市场的激进打法,选择仍然沿用台积电 16nm 工艺,定位于「专注云端训练计算」。

对比两大巨头的主流云端产品线,英伟达去年 9 月发布并已发货的 Tesla T4 采用 14nm 工艺,AMD 去年 11 月发布的 Radeon Instinct MI60 和 MI50 采用 7nm 工艺,寒武纪这次似乎希望单纯依靠技术路线取胜,不再如去年对于 7nm 工艺寄予厚望。

「让英伟达难受」

在芯片性能方面,「思元 270」的性能参数有意向业界标杆英伟达 Tesla T4 看齐。

据机器之心目前了解到的情况来看,「思元 270」可支持 INT16/INT8/INT4 等多种定点精度计算,INT16 的峰值性能为 64Tops(64 万亿次运算),INT8 为 128Tops,INT4 为 256Tops。

对比 Tesla T4,FP16 的峰值性能为 65 Tops,INT8 为 130 Tops,INT4 为 260 Tops。

功耗方面,「思元 270」功耗为 75w,与 Tesla T4 持平。

但值得注意的是,这些「理论峰值」不过是纸面规格,真正实测水平相比理论峰值通常有一定缩水。据某大体量计算数据中心负责人,同时也是阿里云早期核心技术研发人员李立表示,「T4 在实测过程中,75w 功耗维持不了多久就降一半频率。」

据该负责人介绍,他在几个月前已经拿到「思元 270」的具体规格和特性,「对比而言,第一代 MLU100 是试水,第二代 270 就聚焦多了,威力非常大,NV 后面会很难受。」

与此同时,该负责人还指出,「寒武纪的方案在某些领域可能不会特别好使,尚待观察。」

核心技术解密

这里需要引入一对运算表示法的概念,整数运算(定点运算)与浮点运算。

它们是计算机计算中最为常用的两种运算表示法,顾名思义,其差异就体现在整数和浮点上,加减乘除运算都是一样的。

整数表示法,即所有位都表示各位数字,小数点固定;浮点表示法,则分成两部分,阶码和尾数,尾数就是数字部分,阶码表示乘幂的大小,也就是小数点位置。所以浮点数在做运算的时候,除了对尾数做加减乘除,还要处理小数点位置。

基于两种不同的运算表示法规则,导致面对同样长度的整数和浮点运算,后者计算模式更为复杂,需要消耗更多的资源去处理,并且二者功耗差距通常是数量级的。 简单来说,就是浮点运算占用的芯片面积和功耗相比于整数运算器都要大很多倍。

但浮点运算又有其不可取代性。首先,定点表示法运算虽然直观,但是固定的小数点位置决定了固定位数的整数部分和小数部分,不利于同时表达特别大的数或者特别小的数,可能「溢出」。

而浮点的精度虽然没有定点大,但是浮点运算的小数点位置可以移动,运算时不用考虑溢出,所以科学计算法一般都使用浮点。所谓「溢出」,指超出某种数据格式的表示范围。

此外,具体到使用 GPU 做训练,业界通常更倾向于浮点运算单元,主要是因为在有监督学习的 BP 算法中,只有浮点运算才能记录和捕捉到训练时很小的增量。 由于训练的部分模块对精度要求比较高,所以通常必须是高精度的浮点运算,比如 FP32 才能搞定,FP16 都难。

综上,虽然浮点运算相比定点运算在功耗、计算速度、性价比等方面都不占优势,但截止目前,浮点计算在云端的训练场景中仍具有不可替代的特性,并且以高精度运算为主。

那么,如何在不增加芯片面积和功耗的前提下,如何大幅提升芯片做训练的运算能力就成为云端训练芯片的主要研课题之一。

参考计算过程相对简单的推断计算思路,目前该领域的 AI 芯片多采用集成大量整数运算器或低精度浮点运算器。

面对计算过程更为复杂的训练计算,业界一直在尝试是否可能用性价比更高的定点运算器实现。「但这个问题在学术界也还没有普适的解决方案。」王一说道。

李立表达了类似的观点, 目前大家的研究热点之一,就在于如何全部的定点单元(比如 INT8)代替浮点单元,或者以主要的定点单元配合少量的高精度浮点计算单元(比如 FP32)做更多的训练任务,目的是达到定点计算的快速度,同时实现接近高精度浮点计算的精度。

谈到目前该方向的研究成果和代表论文,李立表示,行业相关的研究文章已经有一些,不过都不具有普适性。

王一进一步向机器之心透露了关于实现低精度运算的「关键心法」,要做好低精度训练,就要找到一个好的数据表示方法,既能表达最后大的数,又能让 0 附近的小量能够更好地表达,因此这个数据表示可能需要有自适应性,能随着训练的过程调整。

他还补充, 「低精度训练确实未必要是浮点数,只要能把数域表达好,0 附近的小量表达好,什么样的数据表示都可以。」

综上,寒武纪在大幅度提升训练阶段的计算功耗比方面,很有可能采用的是以整数为主的低精度运算,这在目前已公布的 AI 芯片项目中属于首创。

实际上,寒武纪在计算机计算领域的开创精神和技术积淀由来已久。早在 2014 年—2016 年期间,寒武纪创始人兼 CEO 陈天石、陈云霁两兄弟的研究就基本奠定了神经网络芯片的经典设计思路,也就是现在常谈到的 AI 芯片架构。

当时他俩的「DianNao 系列」论文横扫体系结构学术圈: Diannao(电脑)是 ASPLOS'14 最佳论文(亚洲第一次),DaDiannao(大电脑)是 MICRO'14 最佳论文(美国以外国家的第一次)……

而在大洋彼岸,美国两家风头正劲的 AI 芯片公司 Graphcore、GTI(Gyrfalcon Technology, Inc)正是沿用了 DianNao 系列论文的基本思路,采用大量堆叠的简单计算单元以实现复杂的云端计算。(机器之心曾进行过相关报道,《一款芯片训练推理全搞,Hinton 为其背书,Graphcore 完成 2 亿美元融资》、《30 年前的「CNN 梦」在这颗芯片落地,能效比高出 Tesla10 倍 | CES 直击》)

此外,要切数据中心市场的蛋糕,一套完备成熟的软件生态也是其核心竞争力的重要体现。英伟达之所以能够在云端训练领域成为绝对主流,其 CUDA 软件生态的基础功不可没。

据机器之心了解,寒武纪从 2016 年起逐步推出了寒武纪 NeuWare 软件工具链,该平台终端和云端产品均支持,可以实现对 TensorFlow、Caffe 和 MXnet 的 API 兼容,同时提供寒武纪专门的高性库,可以方便地进行智能应用的开发,迁移和调优。

「云芯」之争一触即发

尽管前述了寒武纪的种种硬核技术护体、大资本和客户加持,但想要真正在数据中心市场扎下根,以实现陈天石去年在发布会上谈到的目标:到 2020 年底,力争占据中国高性能智能芯片市场的 30% 份额,仍然面临着异常残酷的市场竞争。

整体上,英特尔在数据中心服务器芯片市场仍然牢牢占据着的 95% 以上份额。

而随着深度学习计算和人工智能技术逐步兴起的云端训练市场,同样被巨头绝对垄断。目前 90% 以上的云端加速采用英伟达 GPU,AMD、FPGA 占据非常小的份额,剩余市场还在被国内外芯片创业公司不断瓜分。

据机器之心了解,近期还有一家国内知名 AI 算法公司将要入局云端推理芯片市场。据德勤最新出炉的报道显示,到 2022 年,全球人工智能训练市场的规模将达到约 170 亿美元,云端推理芯片市场的规模将达到 70 亿美元。

可以预见,2019 年,AI 芯片之争将从端燃及云上,云端的大体量、高增速市场势必迎来更多强劲玩家。

(应采访者需求,文中李立、王一均为化名。)

大数据和云计算的区别:

1)目的不同:大数据是为了发掘信息价值,而云计算主要是通过互联网管理资源,提供相应的服务。

2)对象不同:大数据的对象是数据,云计算的对象是互联网资源以及应用等。

3)背景不同:大数据的出现在于用户和社会各行各业所产生大的数据呈现几何倍数的增长;云计算的出现在于用户服务需求的增长,以及企业处理业务的能力的提高。

4)价值不同:大数据的价值在于发掘数据的有效信息,云计算则可以大量节约使用成本。

不看现在云计算发展情况,未来的趋势是:云计算作为计算资源的底层,支撑着上层的大数据处理,而大数据的发展趋势是,实时交互式的查询效率和分析能力,借用Google一篇技术论文中的话:“动一下鼠标就可以在妙极 *** 作PB级别的数据”,确实让人兴奋不能止。

大数据分析经常和云计算联系到一起,因为实时的大型数据集分析需要像MapRece一样的框架来向数十数百或甚至数千的服务器分配工作,大数据需要特殊的技术,以有效地处理大量数据。适用大数据的技术,包括大规模并行处理数据库、数据挖掘电网、分布文件系统、分布式数据库、计算平台、互联网和可扩展的存储系统,大数据指的海量的数据一般日处理PB级别以上,一般用于挖掘,分析,做一些智能性商业板块。

大数据必然与云计算有相关(大数据和云计算没有必然的联系,你要作大数据,可以用云计算,也可不用)数据中心是云计算基础,从技术上来看,大数据与云计算的关系就像一枚硬币的正反面一样密不可分,大数据必然无法用单台的计算机进行处理,必须采用分布式的架构。它的特色在于对海量数据进行分布式数据挖掘,但它必须依托云计算分布式处理、分布式数据库和云存储、虚拟化等技术,随着云时代的来临,大数据也吸引了越来越多的关注。

1私有云GIS在国土资源档案管理中的应用

11应用模式的选择

GIS是管理国土资源档案数据的必需技术手段,就目前我国的GIS市场而言,基于私有云的应用会成为一个很重要的方向。由于国土资源档案多数数据都是涉密或敏感的,国土资源档案的利用也是比较专业的,且用户对象集中在国土资源行业和档案利用部门,这些因素就决定了国土资源档案不适合建立在公有云GIS平台上。基于国土资源档案数据的安全性和保密性,在云GIS的3种建设模式中,私有云GIS是国土资源档案管理应用的最佳选择。

12私有云GIS架构

Esri公司已推出支持云架构的GIS平台产品ArcGIS 10 o Esri云架构是首先建成并且比较成熟的产品架构,基于私有云GIS的国土资源档案管理平台采用Esri的云架构,将使用ArcGIS 。10平台来建设国土资源档案云GIS

本文所论述的国土资源档案私有云GIS平台以广东省国土资源档案馆的省级档案平台为例。该平台按照云计算的典型3层级服务形式搭建,包括了省级国土资源档案数据中心的各项基础设施,如存储设备、网络设备、服务器和客户端等,这就是IaaS层(基础设施即服务)的组成内容。而部署云GIS最关键的就是在基础设施层上架构GIS平台,将ArcGIS10部署到基础实施层上,搭建PaaS层(平台即服务)。在SaaS层(软件即服务)上,部署“云端”服务,满足国土资源档案管理在“云端”的应用需求。IaaS层的设施架构在省级国土资源档案数据中心,与公有云不一样的是,私有云CTIS的网络是政务专网,用户限定在国土资源档案管理部门以及其他档案应用部门。在架构好的省级国土资源档案云平台上,将预先配置好的ArcGIS Server以及企业级Geodatabase镜像架构在PaaS层,就实现了国土资源档案私有云CTIS平台。在该私有云平台上的用户(包括各级行政管理部门),按照国土资源档案管理有关规定,申请使用该云CTIS平台上的资源,而不需像企业所建公有云一样,通过付费使用。这样,省级以下的市县级档案管理部门就可以节省构架平台的费用和时间,不需要遵循亚马逊提供服务的付费方式,便可以根据ArcGIS的“T ermLicense”选择不同的使用模式。在CTIS软件即服务层( SaaS)上,提供了基于云的客户端和应用程序,各级档案管理部门可以利用CTIS工具和数据解决复杂的国土资源档案业务问题。

2“云端”的国土资源档案服务

21档案资源服务

在省级国土资源档案私有云平台上,档案资源的服务包含了档案平台中的基础设施(数据中心)服务、国土资源档案数据资源和档案管理的应用功能服务。

广东省国土资源档案云平台由数据中心和档案管理与应用平台组成,采用虚拟化技术整合成为一个虚拟资源池,在省级和市级网络中通过hub来协调工作。虚拟数据中心的hub建在广东省国土资源档案馆,由省级国土资源档案馆的数据中心管理机构提供网站门户技术和服务器资源。为了支撑全省国土资源档案管理部门(1个省级馆和21个市级馆)和其他用户对网站和注册表的访问,数据中心需投入至少22个虚拟服务器,以满足全省各市级馆使用档案云平台的需求。对这些参与进来的市级国土资源档案部门,其空间数据档案资源的服务都可以通过这个云平台的站进行访问。这样,无论哪一个单位的档案基础设施是否具备网络地图档案服务,它都可与在云平台上的任何具有这项服务的单位进行合作,并发布基础地图档案数据。正因为如此,加入云平台网络的用户,都应将其档案资源迁移到云端,依托于广东省国土资源档案云平台的基础设施和应用程序对国土资源档案进行管理。

国土资源档案数据资源以空间数据库的形式进行管理,在应用界面上表现为不同的图层数据,这种空间数据档案的管理服务通过云CTIS来实现。用户在国土资源档案私有云平台的网络中,使用注册表中的网络服务地址,每个国土资源档案数据集能够被显示在不同的CTIS软件包或者网络站点上。基于Esri公司的ArcGIS Server和ArcGIS Desktop,广东省国土资源档案云平台可以提供地图档案服务和空间定位搜索等服务,并显示来自每个单位档案资源提供者的多源空间数据层。

22基于GIS的档案应用服务

在设计基于私有云CTIS技术的国土资源档案云平台时,重点考虑的就是针对国土资源档案空间地理特征,对国土资源档案提供全面的CTIS方法服务,即对国土资源数据档案的管理实现各类地图服务。ArcGISServer可以通过模仿亚马逊d性计算云(amazon elasticcompute cloud,简称Amazon EC2)部署到省级国土资源档案私有云的云端。

在云端除了能将国土资源档案空间数据集组合存储到云平台专用网络的地图环境下,以便与各级档案管理部门用户进行共享外,还能提供各种常用的地图可视化 *** 作工具,如地图缩放、平移、定位、空间搜索和图层透明度控制等GIS方法服务。在这些分布式服务器上生产的国土资源档案数据,可以直接发送到各个用户的网络客户端上。每一个参与者都通过一个标准的地图服务(WMS, WFS或WCS来提供它的国土资源档案数据。通过云平台站,可以实现国土资源档案所有的应用服务。这样,各级用户就可以通过ArcGIS Online的方法访问云端来获得各种地图档案应用服务,包括即拿即用的地图档案资源服务和GIS *** 作方法服务。

3结语

目前,我国对地图数据的安全有着很高的政策要求,云GIS尚难全面推广。但是,国土资源档案管理部门建立私有云GIS平台,使云端的架构和应用服务都在政务专网的局域内进行,既保障了国土资源档案数据的安全,又充分发挥了云GIS技术的优势,避免各部门重复投资,为国土资源档案信息化发展提供了新的思路。

在“新基建”浪潮下,人工智能正成为经济增长的新引擎,各行各业开启智能化升级转型。算力在其中扮演了重要角色,是国家未来竞争力的集中体现。但事实是,在发展的过程中,高速增长的海量数据与更加复杂的模型,正在为算力带来更大的挑战,主要体现为算力不足,效率不高。


算力诚可贵:数据、算法需要更多算力支撑


众所周知,在人工智能发展的三要素中,无论是数据还是算法,都离不开算力的支撑,算力已成为人工智能发展的关键要素。


IDC发布的《数据时代2025》报告显示,2018年全球产生的数据量为33ZB (1ZB=1万亿GB),到2025年将增长到175ZB,其中,中国将在2025年以486ZB的数据量及278%的占比成为全球最大的数据汇集地。



另据赛迪顾问数据显示,到2030年数据原生产业规模量占整体经济总量的15%,中国数据总量将超过4YB,占全球数据量30%。数据资源已成为关键生产要素,更多的产业通过利用物联网、工业互联网、电商等结构或非结构化数据资源来提取有价值信息,而海量数据的处理与分析对于算力的需求将十分庞大。



算法上,先进模型的参数量和复杂程度正呈现指数级的增长趋势。此前 Open AI 发表的一项研究就显示,每三到四个月,训练这些大型模型所需的计算资源就会翻一番(相比之下,摩尔定律有 18 个月的倍增周期)。2012 至 2018 年间,深度学习前沿研究所需的计算资源更是增加了 30 万倍。



到2020年,深度学习模型对算力的需求达到了每天百亿亿次的计算需求。2020年2月,微软发布了最新的智能感知计算模型Turing-NLG,参数量高达到175亿,使用125POPS AI计算力完成单次训练就需要一天以上。随后,OpenAI又提出了GPT-3模型,参数量更达到1750亿,对算力的消耗达到3640 PetaFLOPS/s-day。而距离GPT-3问世不到一年,更大更复杂的语言模型,即超过一万亿参数的语言模型SwitchTransformer即已问世。


由此可见,高速增长的海量数据与更加复杂的模型,正在给算力带来更大的挑战。如果算力不能快速增长,我们将不得不面临一个糟糕的局面:当规模庞大的数据用于人工智能的训练学习时,数据量将超出内存和处理器的承载上限,整个深度学习训练过程将变得无比漫长,甚至完全无法实现最基本的人工智能。


效率价更高:环境与实际成本高企,提升效率迫在眉睫


在计算工业行业,有个假设是“数字处理会变得越来越便宜”。但斯坦福人工智能研究所副所长克里斯托弗•曼宁表示,对于现有的AI应用来说却不是这样,特别是因为不断增加的研究复杂性和竞争性,使得最前沿模型的训练成本还在不断上升。


根据马萨诸塞大学阿默斯特校区研究人员公布的研究论文显示,以常见的几种大型 AI 模型的训练周期为例,发现该过程可排放超过 626000 磅二氧化碳,几乎是普通 汽车 寿命周期排放量的五倍(其中包括 汽车 本身的制造过程)。



例如自然语言处理中,研究人员研究了该领域中性能取得最大进步的四种模型:Transformer、ELMo、BERT和 GPT-2。研究人员在单个 GPU 上训练了至少一天,以测量其功耗。然后,使用模型原始论文中列出的几项指标来计算整个过程消耗的总能量。


结果显示,训练的计算环境成本与模型大小成正比,然后在使用附加的调整步骤以提高模型的最终精度时呈爆炸式增长,尤其是调整神经网络体系结构以尽可能完成详尽的试验,并优化模型的过程,相关成本非常高,几乎没有性能收益。BERT 模型的碳足迹约为1400 磅二氧化碳,这与一个人来回坐飞机穿越美洲的排放量相当。



此外,研究人员指出,这些数字仅仅是基础,因为培训单一模型所需要的工作还是比较少的,大部分研究人员实践中会从头开发新模型或者为现有模型更改数据集,这都需要更多时间培训和调整,换言之,这会产生更高的能耗。根据测算,构建和测试最终具有价值的模型至少需要在六个月的时间内训练 4789 个模型,换算成碳排放量,超过 78000 磅。而随着 AI 算力的提升,这一问题会更加严重。


另据 Synced 最近的一份报告,华盛顿大学的 Grover 专门用于生成和检测虚假新闻,训练较大的Grover Mega模型的总费用为25万美元;OpenAI 花费了1200万美元来训练它的 GPT-3语言模型;谷歌花费了大约6912美元来训练 BERT,而Facebook针对当前最大的模型进行一轮训练光是电费可能就耗费数百万美元。


对此,Facebook人工智能副总裁杰罗姆•佩森蒂在接受《连线》杂志采访时认为,AI科研成本的持续上涨,或导致我们在该领域的研究碰壁,现在已经到了一个需要从成本效益等方面考虑的地步,我们需要清楚如何从现有的计算力中获得最大的收益。


在我们看来,AI计算系统正在面临计算平台优化设计、复杂异构环境下计算效率、计算框架的高度并行与扩展、AI应用计算性能等挑战。算力的发展对整个计算需求所造成的挑战会变得更大,提高整个AI计算系统的效率迫在眉睫。


最优解:智算中心大势所趋,应从国家公共设施属性做起


正是基于上述算力需求不断增加及所面临的效率提升的需要,作为建设承载巨大AI计算需求的算力中心(数据中心)成为重中之重。


据市场调研机构Synergy Research Group的数据显示,截至到2020年第二季度末,全球超大规模数据中心的数量增长至541个,相比2015年同期增长一倍有余。另外,还有176个数据中心处于计划或建设阶段,但作为传统的数据中心,随之而来的就是能耗和成本的大幅增加。



这里我们仅以国内的数据中心建设为例,现在的数据中心已经有了惊人的耗电量。据《中国数据中心能耗现状白皮书》显示,在中国有 40 万个数据中心,每个数据中心平均耗电 25 万度,总体超过 1000 亿度,这相当于三峡和葛洲坝水电站 1 年发电量的总和。如果折算成碳排放则大概是 9600 万吨,这个数字接近目前中国民航年碳排放量的 3 倍。


但根据国家的标准,到2022年,数据中心平均能耗基本达到国际先进水平,新建大型、超大型数据中心的 PUE(电能使用效率值,越低代表越节能)达到 14 以下。而且北上广深等发达地区对于能耗指标控制还非常严格,这与一二线城市集中的数据中心需求形成矛盾,除了降低 PUE,同等计算能力提升服务器,尤其是数据中心的的计算效率应是正解。


但众所周知的事实是,面对前述庞大的AI计算需求和提升效率的挑战,传统数据中心已经越来越难以承载这样的需求,为此,AI服务器和智算中心应运而生。


与传统的服务器采用单一的CPU不同,AI服务器通常搭载GPU、FPGA、ASIC等加速芯片,利用CPU与加速芯片的组合可以满足高吞吐量互联的需求,为自然语言处理、计算机视觉、语音交互等人工智能应用场景提供强大的算力支持,已经成为人工智能发展的重要支撑力量。


值得一提的是,目前在AI服务器领域,我们已经处于领先的地位。


近日,IDC发布了2020HI《全球人工智能市场半年度追踪报告》,对2020年上半年全球人工智能服务器市场进行数据洞察显示,目前全球半年度人工智能服务器市场规模达559亿美元(约3266亿人民币),其中浪潮以164%的市占率位居全球第一,成为全球AI服务器头号玩家,华为、联想也杀入前5(分别排在第四和第五)。


这里业内也许会好奇,缘何中国会在AI服务器方面领跑全球?



以浪潮为例,自1993年,浪潮成功研制出中国首台小型机服务器以来,经过30年的积累,浪潮已经攻克了高速互联芯片,关键应用主机、核心数据库、云数据中心 *** 作系统等一系列核心技术,在全球服务器高端俱乐部里占有了重要一席。在AI服务器领域,从全球最高密度AGX-2到最高性能的AGX-5,浪潮不断刷新业界最强的人工智能超级服务器的纪录,这是为了满足行业用户对人工智能计算的高性能要求而创造的。浪潮一直认为,行业客户希望获得人工智能的能力,但需要掌握了人工智能落地能力的和技术的公司进行赋能,浪潮就可以很好地扮演这一角色。加快人工智能落地速度,帮助企业用户打开了人工智能应用的大门。


由此看,长期的技术创新积淀、核心技术的掌握以及对于产业和技术的准确判断、研发是领跑的根本。


至于智算中心,去年发布的《智能计算中心规划建设指南》公布了智能计算中心技术架构,基于最新人工智能理论,采用领先的人工智能计算架构,通过算力的生产、聚合、调度和释放四大作业环节,支撑和引领数字经济、智能产业、智慧城市和智慧 社会 应用与生态 健康 发展。



通俗地讲,智慧时代的智算中心就像工业时代的电厂一样,电厂是对外生产电力、配置电力、输送电力、使用电力;同理智算中心是在承载AI算力的生产、聚合、调度和释放过程,让数据进去让智慧出来,这就是智能计算中心的理想目标。


需要说明的是,与传统数据中心不同,“智算中心”不仅把算力高密度地集中在一起,而且要解决调度和有效利用计算资源、数据、算法等问题,更像是从计算器进化到了大脑。此外,其所具有的开放标准,集约高效、普适普惠的特征,不仅能够涵盖融合更多的软硬件技术和产品,而且也极大降低了产业AI化的进入和应用门槛,直至普惠所有人。



其实我们只要仔细观察就会发现,智算中心包含的算力的生产、聚合、调度和释放,可谓集AI能力之大成,具备全栈AI能力。


这里我们不妨再次以浪潮为例,看看何谓全栈AI能力?


比如在算力生产层面,浪潮打造了业内最强最全的AI计算产品阵列。其中,浪潮自研的新一代人工智能服务器NF5488A5在2020年一举打破MLPerf AI推理&训练基准测试19项世界纪录(保证充足的算力,解决了算力提升的需求);在算力调度层面,浪潮AIStation人工智能开发平台能够为AI模型开发训练与推理部署提供从底层资源到上层业务的全平台全流程管理支持,帮助企业提升资源使用率与开发效率90%以上,加快AI开发应用创新(解决了算力的效率问题);在聚合算力方面,浪潮持续打造更高效率更低延迟硬件加速设备与优化软件栈;在算力释放上,浪潮AutoML Suite为人工智能客户与开发者提供快速高效开发AI模型的能力,开启AI全自动建模新方式,加速产业化应用。


那么接下来的是,智算中心该遵循怎样的发展路径才能充分发挥它的作用,物尽其用?


IDC调研发现,超过九成的企业正在使用或计划在三年内使用人工智能,其中745%的企业期望在未来可以采用具备公用设施意义的人工智能专用基础设施平台,以降低创新成本,提升算力资源的可获得性。


由此看,智能计算中心建设的公共属性原则在当下和未来就显得尤为重要,即智能计算中心并非是盈利性的基础设施,而是应该是类似于水利系统、水务系统、电力系统的公共性、公益性的基础设施,其将承载智能化的居民生活服务、政务服务智能化。因此,在智能计算中心规划和建设过程中,要做好布局,它不应该通过市场竞争手段来实现,而要体现政府在推进整个 社会 智能化进程的规划、节奏、布局。


总结: 当下,算力成为推动数字经济的根基和我国“新基建“的底座已经成为共识,而如何理性看待其发展中遇到的挑战,在不断高升算力的前提下,提升效率,并采取最佳的发展策略和形式,找到最优解,将成为政府相关部门以及相关企业的重中之重。

立足数据中心运维管理的现状,顺应时代发展的潮流,充分利用信息技术的机遇,利用现有资源对数据中心的运维管理加强完善和创新,为行业的发展,国家的进步贡献力量。


1大数据时代数据中心运维管理的现状


大数据时代作为时代发展的机遇出现在大众视野,但是也是作为挑战逐步渗透在行业的数据中心运维管理中。以计算机技术为依托的数据中心运维管理的显著特点就是大规模的数据流量,正在不断与原有的数据中心架构产生冲突。


目前,大数据时代的数据中心运维管理的先进意识已经深入人心,但是实际项目 *** 作过程中会有众多的问题出现。因为在磨合期,所以现有设备不能满足大数据时代的数据中心管理要求;运维管理人员的没有经过大数据时代新的运维管理思路的熏陶,技术水平与之不匹配;还有就是数据中心的运维管理制度不都完善,相应的管理水平不高。


2解决数据中心运维管理困境的策略


针对目前数据中心运维管理的困境,本文提出了相应的解决策略,以供业界参考。


21 提升运维管理人员的整体能力


基于目前数据中心运维管理工作人员的实际能力,通过采取以下积极的措施来提升运维管理工作人员的综合能力水平。


211 大数据背景下,强化数据中心运维管理人员的技术应用水平


通过多维度的检验途径,比如定期检查该技术的理论与实践水平确定工作人员的当前能力,在制定符合目前技术短板的相关培训,从而保证运维管理工作的顺利进行。


212 加强管理方面的知识渗透


在加强数据中心运维管理人员的技术应用水平的前提下,可以加强管理学知识的渗透,为技术团队的整体语言表达能力的提升以及为管理层储备后续力量,既懂技术又懂管理的新世纪人才,有助于数据中心运维管理工作更加高质量的完成。


213 加强工作人员执行力,更高效的完成工作


在数据中心运维管理的众多评价标准中,执行力是影响一个团队整体运作能力很重要的一个指标,良好的执行力可以保证时间段内的工作目标提前完成或者超量完成。


22 强化业务管理工作和业务培训工作


现如今,科学技术的更新速度往往超出人们的接受速度,在数据中心运维管理这个领域也同样适用。所以使得运维管理人员刚刚熟练掌握新的运维既能并熟练应用,新的技术又刷新了行业应用领域。所以设立专门的培训机构,强化管理人员终身学习的意识,紧跟时代发展的脚步。


221 制定合理的业务培训和业务管理培训计划


科学合理的方案总能给与人们正确的指导,并保证在规定期限内达到既定目标。运维管理培训和业务培训的内容要与时俱进,不断为管理人员灌输新的知识,为运维管理的工作融入新鲜的血液。


222 合理安排培训时间


运维工作人员在企业内是员工,男性员工在家庭里是儿子,是丈夫,是爸爸,所以要协调好培训的时间,保证员工能充分解决员工之外的各种事情,全身心的投入工作。


223 使业务管理和业务培训的形式呈现多元化


公司管理层应加强与行业内部个组织间的联系,比如同专业的大学、同行业资深专家、专业讲座等等。通过多元形式的学习加深对行业发展的了解,并积极促进管理人员的专业素养。


224 定期进行培训效果的考核


在定期进行学习之余,为检验学习效果是否达到预期目标,应适时进行检验,进一步促进运维工作人员的学习质量的提升,提升其主观学习的动力。


总之,强化对运维工作人员的业务培训,能够有效地对运维工作者的维修技术进行与时俱进的培训,能够有利于运维管理工作人员进行数据中心运维管理工作的开展,最终有利于信息技术飞速发展下的运维工作的稳定进行。


23 加强了解整体行业环境的意识


有些企业的运维管理的硬件设施和软件配备欠缺,造成整体的管理水平低,是因为企业没有采取相应的举措保障。以下将详细讲述如何提升整体行业环境的了解。



(2)定期组织团队中的成员进行行业发展前景的探讨,在探讨交流的过程中了解当下运维管理工作的总趋势,从而能够为运维工作的有效进行提供有价值的参考意见。



总之,强化了解和分析业务环境的意识,能够有利于运维管理工作人员有行业的危机意识和行业的发展意识以及个人职业规划意识的提升,最终有利于大数据时代数据中心运维管理工作的顺利开展。


3大数据时代下,技术层面面临的挑战


31动力环境监控系统概述


通过应用数据采集系统,计算机和网络技术,逐步完成数据中心运维管理动力电源供电设备的运行和机房的监控的平台就是数据中心动力环境监控系统。


32 动力环境监控数据的特点。


通过采集数据中心的关键指标数据,针对实际运行情况实现预警功能、远程功能以及运行监测功能。动力环境监控数据具有其本身特点。


321 数据结构化、格式化程度高


因系统采集到的实时监控数据大都存储于数据库中,因而动环监控数据结构化、格式化程度高,这也为数据挖掘提供了便利。


322 实时更新


动力环境监控系统运行的最底保证便是数据的准确性和实时更新,其数据采集的更新时间间隔为每秒。


323 时序性


动力环境监控系统实时记录的环境温度、环境湿度等数据都是随时间更替而进行采集的。


33 数据挖掘提高告警信息准确性


动力监控系统是以计算机为载体,以信息技术为依托的技术,所以其产生的大规模数据也是大数据时代一个突出的特点。就目前而言大规模的数量利用率较低,即使专业水准较高的管理人员也会深感难度高、工作量大,与现有的技术水平不能完好对接。


数据挖掘技术的出现解决了目前的难题。数据挖掘中关联分析方法解决了数据中心运维管理中不明原因的重复警报,为运维管理的工作有序进行提供了基础,并为专业水平较低的运维人员提升了工作效率。


33 运维经验知识化的工作模式需要改进


据以往的运维工作人员的叙述,过度依赖专家给与的指导经验,成为行业内部的不良风气。首先运维专家的培养周期较长,短时间没有任何效益输出;其次专家的意见偶尔会带有强烈的主管色彩,但是对于实际 *** 作过程并不适用,最终导致工作的延误;最后就是过度依赖专家,若运维专家不在职装天下将会对运维管理工作造成重创,不具有可持续性。


所以建立关于数据中心运维管理的内部数据和外部数据,为现有的运维人员过度依赖专家的不良习惯提出解决方案。内部数据主要是指内部运维经验;外部数据是指来源于互联网的运维知识。对于收集到的内外部数据,利用文本挖掘、聚类、分类预测等方法对信息进行加工展现,转化成知识库中的知识,并实现对信息的快速、自动化检索。


34 资源调度成为容量管理的关键


在大数据时代下,数据中心存储容量指标是指机位空间指标等,尤其是计算资源指标,是其组成的关键部分。需要最新的数据中心运维管理平台实现监测服务器、使用网络以及存储资源等功能,根据实际情况进行管理策略的变动和资源的优化配置。


云计算技术已成为数据中心运维管理的核心,并打破传统的数据运维管理信息系统结构,建立一个全新的集计算、存储、和网络三维一体的虚拟资源库,通过实际的 *** 作,实现现有资源的动态优化配置。


虚拟化技术可以保证存储环节中大规模数据的安全性,在逐步实现数据资源的重复使用、关联以及动态管理等动能的同时,也为运维管理人员提出了巨大的挑战。故此,通过科学合理的分析容量数据,构建完善的资源调度制度,实现实现新一代数据中心资源在应用间的动态分配,将成为大数据时代下数据中心运维管理的一大挑战。


4结束语


为顺应大数据时代的潮流,必须进行数据中心运维管理的深度优化,为数据中心的整体发展提供新鲜的 科技 动力。通过提升运维管理人员各方面的能力还有利用先进的动力环境监控系统技术,为数据中心的运维管理提供强大的人力支持和技术支持,助力大数据时代背景下,数据中心运维管理的长足发展。


参考文献

[1]朱玉立,任义延,高甲子等,浅谈大数据时代下的数据中心运维管理[J]信息系统工程,2015

[2]解林超,石佳,王仲锋等。大数据时代对传统数据中心的影响及思考[J]中国新通信,2014

[3]周焘。大数据时代的档案大编研[J]陕西档案,2014

[4]陈艺高,动环大数据,提升运维效能[J]通信电源技术,2014

[5]张隽轩,张文利,黄毅。数据中心运维系统应用ITIL管理体系分析[J]智能建筑与城市信息,2015

[6]宋维佳,马皓,肖臻,张晓军,张蓓虚拟化数据中心资源调度研究[J]广西大学学报:自然科学版,2011,36(01):330-334


欢迎分享,转载请注明来源:内存溢出

原文地址: https://outofmemory.cn/zz/10526122.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-09
下一篇 2023-05-09

发表评论

登录后才能评论

评论列表(0条)

保存