高可用集群( High Availability Cluster)
负载均衡集群(Load Balance Cluster)
科学计算集群(High Performance Computing Cluster)
1、高可用集群(High Availability Cluster)
常见的就是2个节点做成的HA集群,有很多通俗的不科学的名称,比如”双机热备”, “双机互备”, “双机”。高可用集群解决的是保障用户的应用程序持续对外提供服务的能力。 (请注意高可用集群既不是用来保护业务数据的,保护的是用户的业务程序对外不间断提供服务,把因软件/硬件/人为造成的故障对业务的影响降低到最小程度)。
2、负载均衡集群(Load Balance Cluster)
负载均衡系统:集群中所有的节点都处于活动状态,它们分摊系统的工作负载。一般Web服务器集群、数据库集群和应用服务器集群都属于这种类型。
负载均衡集群一般用于相应网络请求的网页服务器,数据库服务器。这种集群可以在接到请求时,检查接受请求较少,不繁忙的服务器,并把请求转到这些服务器上。从检查其他服务器状态这一点上看,负载均衡和容错集群很接近,不同之处是数量上更多。
3、科学计算集群(High Performance Computing Cluster)
高性能计算(High Perfermance Computing)集群,简称HPC集群。这类集群致力于提供单个计算机所不能提供的强大的计算能力。
高性能计算分类:
31、高吞吐计算(High-throughput Computing)
有一类高性能计算,可以把它分成若干可以并行的子任务,而且各个子任务彼此间没有什么关联。象在家搜寻外星人( SETI@HOME – Search for Extraterrestrial Intelligence at Home )就是这一类型应用。
这一项目是利用Internet上的闲置的计算资源来搜寻外星人。SETI项目的服务器将一组数据和数据模式发给Internet上参加SETI的计算节点,计算节点在给定的数据上用给定的模式进行搜索,然后将搜索的结果发给服务器。服务器负责将从各个计算节点返回的数据汇集成完整的 数据。因为这种类型应用的一个共同特征是在海量数据上搜索某些模式,所以把这类计算称为高吞吐计算。
所谓的Internet计算都属于这一类。按照 Flynn的分类,高吞吐计算属于SIMD(Single Instruction/Multiple Data)的范畴。
32、分布计算(Distributed Computing)
另一类计算刚好和高吞吐计算相反,它们虽然可以给分成若干并行的子任务,但是子任务间联系很紧密,需要大量的数据交换。按照Flynn的分类,分布式的高性能计算属于MIMD(Multiple Instruction/Multiple Data)的范畴。
下面说说这几种集群的应用场景:
高可用集群这里不多作说明。
想Dubbo是比较偏向于负载均衡集群,用过的猿友应该知道(不知道的可以自行了解一下),Dubbo同一个服务是可以有多个提供者的,当一个消费者过来,它要消费那个提供者,这里是有负载均衡机制在里面的。
搜索引擎Elasticsearch比较偏向于科学计算集群的分布计算。
而到这里,可能不少猿友都知道,集群的一些术语:集群容错、负载均衡。
我们以Dubbo为例:
集群容错(>
今天咱们来看看天河2号超级计算机怎么搭出来的。
天河二号由国防科技大学和浪潮合作研制,2013年至2014年蝉联全球超级计算机第一名。不过性能是拿钱堆出来的,造价25亿人民币,一天满负荷运转要耗电费40万元。看看下面的配置就知道为什么花这么多钱了。从这么多CPU看得出来,CPU厂商是多么喜欢超级计算机。不过美国政府对中国禁运高端CPU之后,Intel的销售估计都要哭死了。
怎么从一个个芯片组装成一台超级计算机?看下图。16000个计算节点,其实就是主板,汇集成32个Frame,再组成4个Rack,最后组成了超算系统。
超级计算机的基础节点包括三种:16000个计算节点,4096个管理节点,256个IO节点和64个存储服务器。
先看看最小的组件:计算节点。2 个Intel Ivy Bridge CPU + 3个 Intel Xeon Phi 。CPU之间用QPI总线互联,一般NUMA架构是这么做的。每个CPU有自己的DIMM内存,一共64GB。还通过PCIex16连到内部高速互联网络,GDDR5内存。GDDR5内存有一个专门的CPU管理。两个万兆网卡估计是管理用的。这样一个节点计算性能最高可以到3432Tflops,
计算节点物理上坐落于计算刀片服务器。如下图,蓝色的是Xeon Phi处理器,黑色的估计就是Ivy Bridge CPU,所以一个刀片服务器包含了两个节点。
再来看看用国产飞腾CPU搭建的管理节点,性能是144GFlops。飞腾CPU是国防科大研制的,目前有几种型号,天河2号采用的FT-1500基于 Sparc V9架构。为了便于商业化推广,飞腾还推出了兼容ARM64位指令集的FT-1500A系列。FT-1500A目前包括4核和16核两款产品。其中4核处理器芯片主要面向桌面终端和轻量级服务器应用领域,面向服务器应用领域的是16核处理器芯片。据称,FT-1500A系列处理器与Intel 2010年的处理器性能相当 。
来看看这颗基于Sparc架构的FT-1500架构。采用40nm工艺,18GHz,16核,功耗约65瓦。计算架构采用了SIMD(Single Instruction Multiple Data),一条指令可以同步让多组数据执行。如下图,一个CPU有四个DDR3接口,IO带宽很高。
天河2号有256个IO节点和64个存储服务器,总共存储容量124PB。既然是超级计算机,自然要使用高性能的固态硬盘SSD,每个IO节点有2TB的SSD,IO带宽达到5GB/s,从下图可以看出1个2TB SSD由5个400GB 小SSD组成,那估计每个的带宽是1GB/s。IO节点对外有两种接口:高速互联接口和Infiniband QDR存储网络接口。阿呆猜想高速互联网络是用来输出数据给计算节点,IB接口是IO节点之间数据共享用的。采用了Hybrid hierarchy file system,H2FS,数据保存在每个节点本地,但是相互之间也能共享。
这么多节点怎么组成超级计算机呢?下面就是组网图。关键的设备是中间的13个交换机,每个交换机有576个端口!
更加难能可贵的是,高速互联芯片都是纯国产。包括网络路由芯片NRC和网络接口芯片NIC。
NRC采用90nm工艺,大小为1716mm1716mm,2577个管脚,带宽为256 Tbps。这么多管脚估计也是为了增加端口数。
NIC也是90nm工艺,大小1075mm1076mm,675个管脚。
说到超算,就不得不提制冷系统,这么一台庞大的机器,没有有效的制冷,估计就着火了。天河2号采用了紧耦合水冷系统,整台机器功耗176MW,加上制冷系统就是24MW。制冷用了27%的电。
天河有自己的软件架构,如下图。对用户来说,最重要的是用户的编程接口,有些用户为了搞个研究,写这个程序就得花上几年。很多时候政府推动的项目硬件给很多经费,设备都很不错,但是领导舍不得给软件投钱,毕竟展示效果没那么壮观,所以软件往往是短板,用户使用不便,先进设备的利用率就不高。
天河支持下列编程语言。值得一提的是OpenMC语言,比CUDA和OpenCL的抽象级别更高,在CPU等各种资源之上有一个统一的逻辑层。各种计算任务异步执行,同时分配到不同的设备上。
对管理者来说,这么多节点的资源调度和监控也是很重要的。如下图,每台机器安装了国产麒麟Linux *** 作系统,其实也是国防科大主导的。
我们搞存储的最关心的就是存储软件架构了。数据分为本地存储和共享存储,共享存储使用了超算流行的Lustre分布式文件系统,这种文件系统对于大文件访问性能不错。用户使用POSIX接口读写文件。不过数据密集型应用用Layout接口和Policy接口访问数据。
总结一下,一台超级计算机其实就是很多小计算机的集合,当然难点在大家的高速互联和同步。
云服务器租用价格低于传统的物理服务器租用,且无需支付押金,具有快速供应和部署能力,用户在提交云主机租用申请后可实时开通,立即获得服务,业务支持平滑扩展,当用户业务规模扩张时,可快速实现业务扩容。
1、云服务器适合注重主机服务性价比的用户; 需要快速实现分布式部署的用户; 对业务的d性扩展能力有需求的用户; 有系统高可用性和快速恢复需求的用户; 希望轻松管理系统的用户。 支持电子商务、论坛、SNS、企业网站、OA系统等互联网应用。
2、云服务器用户可以方便的进行远程维护,免费重装系统硬件级别上实现云主机之间的完全隔离;内置冗余的共享存储和智能备份,物理服务器失败可在几分钟内自动恢复;服务环境采用高端服务器进行部署,同时采用集中的管理与监控,确保业务稳定可靠。更强的主机性能,总体性能远高于VPS,强于部分独立服务器。
3、云服务器根据用户选择不同的线路会配备不同数量的IP地址。单线路默认赠送一个独立IP,双线路二个独立IP;因增加IP造成带宽无法限制,暂时不予增加IP。
4、云服务器为基于云计算平台的主机产品,用户实际付费使用的为云计算平台的计算、存储能力以及优质的网络带宽。用户只需要为实际使用的资源付费,这也是用户选用云主机可以显著降低成本的一个主要因素。
扩展资料
云计算服务器具有以下特点,即高密度(High-density)、低能耗(Energy-saving),易管理(Reorganization )、系统优化(Optimization)。
1、高密度(High-density):未来的云计算中心将越来越大,而土地则寸土寸金,机房空间捉襟见肘,如何在有限空间容纳更多的计算节点和资源是发展关键。
2、低能耗(Energy-saving):云数据中心建设成本中电力设备和空调系统投资比重达到65%,而数据中心运营成本中75%将是能源成本。可见,能耗的降低对数据中心而言是极其重要的工作,而云计算服务器则是能耗的核心。
3、易管理(Reorganization ):数量庞大的服务器管理起来是个很大问题,通过云平台管理系统、服务器管理接口实现轻松部署和管理则是云计算中心发展必须考虑的因素。
4、系统优化(Optimization):在云计算中心中,不同的服务器承担着不同的应用。例如有些是虚拟化应用、有些是大数据应用,不同的应用有着不同的需求。因此针对不同应用进行优化,形成针对性的硬件支撑环境,将能充分发挥云计算中心的优势。
对于追求高密度计算的用户,2U4N型服务器是一个不错的选择。虽然在销量上可能赶不上标准的机架型服务器,但环顾各大品牌服务器厂商,基本都会推出这种高计算性能的服务器机型。在去年,我们对Cisco UCS C4200 2U4N AMD CPU计算型服务器做了拆解分析。在今年的7月,我们又对Inspur i24 2U4节点服务器做了拆解分析。这一次,我们再来看一看服务器市场占有率第一的Dell EMC公司的PowerEdge C6525 2U4N服务器的设计特点。2U4N型服务器的高度与标准2U机架型服务器一致,因此其前面板可以有三种配置形式:12个35英寸硬盘、24个25英寸硬盘,或者不配置硬盘。在这三种前面板配置形态中,使用25英寸硬盘的配置更为普遍。对于这24块25英寸硬盘,既可以是24块SAS/SATA硬盘,也可以是16块SAS/SATA硬盘再加上8块NVMe硬盘。所有的24块25英寸硬盘会被分为4个硬盘区,每个硬盘区里可以有4块SAS/SATA硬盘和2块NVMe硬盘。
Dell EMC PowerEdge C6525服务器前部
在PowerEdge C6525服务器前部两侧的挂耳上,为每一个节点都提供了电源和复位按钮,以及运行状态指示灯。对于2U4N服务器,这是目前非常普遍的设计方法,可以让用户在服务器前部直观地了解到各个节点的运行状态。
PowerEdge C6525这种2U4N服务器的设计特点一般都展示在其后部。机箱后部左右两侧是4个可插拔的2路节点,中间则为电源模块。Dell将节点的型号编码标示在蓝色的把手上,即节省标签空间,又便于用户查看。对于节点的分析我们稍后进行,先重点看看一次电源模块和机箱设计。
Dell EMC PowerEdge C6525服务器后部
Dell为PowerEdge C6525服务器配备了可热插拔的80+铂金电源模块,提供1+1冗余备份。该电源模块可以有1600W、2000W和2400W三种功率选项,根据节点上所用CPU的规格进行选择。
Dell EMC PowerEdge C6525服务器的一次电源
在PowerEdge C6525服务器的机箱内部,Dell使用了4组80mm风扇进行整机散热。对于2U4N型服务器,风扇的设计有两种方式。一种是如PowerEdge C6525服务器这样,使用独立的80mm风扇;另一种是使用较小尺寸的40mm风扇,每个节点都带有自己独立的风扇,不需要共用风扇进行散热。使用共用的风扇,对于降低整机的功耗有一定帮助。但各个节点使用独立的风扇,就可以实现机箱内部所有模块的前维护,运维人员不需要打开机箱上盖就可以更换风扇模块。所以,这两种机箱内的风扇安装方式各有优缺点,需要根据用户需求和设计目的进行选择。
Dell EMC PowerEdge C6525服务器的风扇模块
在机箱的中间,有一个长条形的通道,用于放置管理板、电源电缆和一些控制信号电缆。管理板上会放置BMC芯片,实现对4个节点的管理功能。
Dell EMC PowerEdge C6525服务器的管理板
中央通道的两侧有用于隔离的钣金件,将管理模块和节点分隔开来。这样一来,用户在抽拉节点的时候,机箱内部的各种电缆和节点间就不会存在彼此间的干扰。在插入一次电源模块后,4个节点由4组80mm风扇散热,管理模块则由一次电源模块自带的风扇进行散热。
Dell EMC PowerEdge C6525服务器独立的计算节点和管理节点
2U4N服务器通常用于高性能计算(HPC)和超融合(Hyper Converged)场景,其最有价值的部分就是4个计算型节点,总共可提供8个CPU和对应的内存。PowerEdge C6525服务器的节点使用了AMD EPYC 7002系列CPU,由于节点宽度的限制,每个内存通道只能配置一根DDR DIMM插槽。于是每个CPU可提供8个DDR内存插槽,整个节点可提供16个DDR插槽。
Dell EMC PowerEdge C6525服务器的计算节点
由于计算节点要实现顺畅的插拔,因此Dell在计算节点的前部使用高密连接器来传输信号和电源。高密连接器的体积较小,有助于改善经过CPU的散热风量。
Dell EMC PowerEdge C6525服务器节点的后部
PowerEdge C6525服务器使用的是代号为Rome的AMD EPYC 7002系列处理器,每个CPU可以提供64核心/128线程。于是每个节点可以提供128核心/256线程,整个服务器则可以提供多达1024个线程。
AMD CPU已经可以提供8个内存通道,每个内存通道支持2个DIMM插槽(2DPC),因此每个CPU最多可以配置16个DIMM插槽。但受到节点宽度的影响,只能按照每个内存通道支持1个DIMM插槽的方式(1DPC)进行设计。虽然在内存容量上降低了一半,但每个DIMM插槽可以达到最高速率。由于Intel支持8个内存通道的Ice Lake CPU要到今年底才会推向市场,因此现阶段x86的AMD CPU可以提供最多的内存通道数量。
Dell EMC PowerEdge C6525服务器节点上的CPU和DIMM
使用风冷散热的C6525服务器节点上的每个CPU都有一个大的散热器,在前后两个散热器之间是一个小型的导风罩。导风罩的高度略低于散热器的高低,从而避免在插拔节点的时候与机箱之间产生干涉。
除了风冷节点之外,Dell还和CoolIT Systems公司合作,设计了C6525服务器液冷节点,通过冷板式液给CPU进行散热。国内用户可能对CoolIT Systems这家公司不太熟悉,这是一家专注于液冷解决方案的公司,在OCP组织的液冷项目组里较为活跃。由于C6525服务器节点最高可以支持280W TDP的AMD EPYC 7H12等级CPU,此时使用冷板式液冷,既有必要,又可以获得较好的整机散热性能。
支持液冷的PowerEdge C6525服务器节点
PowerEdge C6525服务器节点的后部主要是各种IO扩展模块。在下图主板的上部放置的是iDRAC 9 BMC芯片,下部则放置了一块OCP NIC 30网卡。由于AMD EPYC系列CPU是SoC设计,不像Intel CPU一样需要外部的PCH模块,因此在主板上没有额外的大芯片。
Dell EMC PowerEdge C6525服务器节点后部
虽然节点的宽度有限,但PowerEdge C6525服务器节点上仍然提供了2个PCIe Gen4 x16的扩展插槽。现阶段,整个服务器市场正在从PCIe Gen3向PCIe Gen4转换,已经有越来越多支持PCIe Gen4速率的部件和服务器机型。随着今年底Intel支持PCIe Gen4速率的Ice Lake CPU推向市场,从2021年开始,PCIe Gen4将会成为服务器产品上的主流。对于2U4N这种高密度的机型,在空间无法进一步扩展的情况下,通过PCIe速率的提升,是提高IO扩展模块性能的最直接手段。
Dell EMC PowerEdge C6525服务器节点上的Riser卡
使用专有的BOSS卡来实现服务器的启动功能,这是Dell服务器的特有设计。在C6525服务器上,支持2个M2模块的BOSS卡放置在DIMM插槽和机箱侧壁之间。使用M2模块,可以有效的减少对机箱前面板25英寸硬盘存储空间的占用,将硬盘空间留给更能带来价值的用户数据和应用程序的存储。
Dell EMC PowerEdge C6525服务器节点上的BOSS卡
在C6525服务器节点后部左侧的下面,Dell放置了1个USB 30 Type-A接口、1个1GbE管理网口、1个mini Display Port和1个用于iDRAC的USB端口。由于受到空间的限制,在节点的后部没有放置更大尺寸的VGA端口。在节点后部左侧的上面,是第一个PCIe x16 Riser扩展插槽。
Dell EMC PowerEdge C6525服务器节点后部左侧
在C6525服务器节点后部右侧的下面,是通过OCP NIC 30网卡扩展的2个高带宽网口。随着OCP NIC 30标准的成熟,这种规格的网口将会在未来的3~4年内成为业界主流。在节点后部右侧的上面,是第二块PCIe Gen4 x16 HHHL Riser插槽。当使用液冷节点的时候,这个插槽位置用来放置液冷管。
Dell EMC PowerEdge C6525服务器节点后部右侧
PowerEdge C6525服务器上使用的OCP NIC 30网卡和规范定义的标准形态略有差异。同样是由于受到节点宽度的限制,Dell在C6525上使用的OCP NIC 30网卡减少了后部的固定螺钉和拆卸扳手。作为替代,在节点内部设计了一个蓝色的塑料扳手,通过扳手来助力OCP NIC 30网卡的拆卸。这是种不得已而为的设计方式,用户如果需要拆卸OCP NIC 30网卡,需要先抽出节点,再经由拆卸扳手将网卡与对应的连接器分离开来,然后才能从节点后部取出。总的来说,这样的设计降低了设备的可维护性。
PowerEdge C6525服务器节点右后部
总 结
2U4N型服务器本身就是高密度计算型服务器,在配备上最新的AMD EPYC 7002系列处理器后,可以提供多达1024个计算线程。由于代号为Milan的第三代AMD EPYC系列处理器与第二代EPYC处理器在Socket上完全兼容,因此Dell EMC的PowerEdge C6525服务器可以顺利地进一步进行升级。由于Dell已经为PowerEdge C6525服务器准备了液冷节点,为更高功耗、更高性能的CPU做好了准备。因此,Dell的2U4N节点服务器将会有更长的生命周期。
推荐阅读:
Supermicro SuperBlade刀片服务器的三重奏
使用Intel N3000 FPGA加速卡的Supermicro 5G边缘服务器
Supermicro用于增加存储密度的两款服务器
Supermicro IP65级户外边缘服务器
Supermicro使用E1L EDSFF存储模块的1U服务器分析
来自网络,版权归原作者所有
本文仅代表作者观点,与就职单位无关。
dell 388服务器上的心电图灯
22年全国拆迁标准已公布,速查
盛廷拆迁律所
广告
服务器指示灯说明!!!!!!!
10下载·0评论
2009年9月9日
dell 388服务器上的心电图灯_边缘服务器现状研究
1316阅读·0评论·0点赞
2020年12月12日
dell r510的介绍
3下载·0评论
2013年6月27日
Dell PowerEdge R230 用户手册文档
31下载·0评论
2018年11月13日
华为服务器显示红色的心跳,服务器心跳检查
523阅读·0评论·0点赞
2021年8月6日
redis使用(3):哨兵、集群、
60阅读·1评论·0点赞
2020年11月8日
拆迁标准,在线咨询北京盛廷律师
盛廷拆迁律所
广告
服务器指示灯说明
5965阅读·0评论·0点赞
2021年6月8日
dell服务器 指示灯_dell服务器i(图标)的指示灯一直闪烁,怎么回事
4284阅读·0评论·0点赞
2020年12月22日
DELL机器诊断灯图
42下载·2评论
2010年6月28日
服务器指示灯详情 中兴,IBM System x服务器前面板指示灯说明(新版)
1690阅读·0评论·0点赞
2021年7月30日
案例:MySQL主从复制与读写分离
202阅读·0评论·0点赞
2020年8月31日
ec服务器如何显示4d,ECToolbox软件四种公式在心肌灌注显像中计算左心室射血分数的应用
122阅读·0评论·0点赞
2021年8月12日
解决DELL R730XD报警亮黄灯无法开机故障
5336阅读·4评论·0点赞
2021年6月4日
dell服务器 指示灯_Dell PowerEdge:传统服务器(第10代和第11代)上的系统LED状态指示灯
3467阅读·0评论·0点赞
2020年12月22日
dell服务器 LCd 状态,dell R720服务器面板指示灯介绍
4376阅读·0评论·1点赞
2021年7月29日
华为服务器显示红色的心跳,客户端服务器心跳
202阅读·0评论·0点赞
2021年8月12日
浪潮发布新型水冷服务器 可以快装移动式液冷集群
893阅读·0评论·0点赞
2020年7月6日
dell 388服务器上的心电图灯_国金计算机服务器行业持续高度景气
271阅读·0评论·0点赞
2020年12月8日
去首页
看看更多热门内容有两种可能:
1,集群各服务器都接在核心交换机。
2,核心交换机端口不够,将集群服务器都连接到一个高级别的汇聚交换机,然后汇聚交换机通过10G/100G口连接到核心交换机。
这两种方式用的都很多,就看实际使用了。
在任何领域,底层基础设施都是至关重要的。对于数字化 社会 ,半导体、 *** 作系统则是整个数字化生态的底层基础设施。中国在芯片和 *** 作系统上实现突破,不仅关乎国家安全,也与中国的数字化产业发展潜力息息相关。
就像一颗大树一样,根扎的越深,树才能长得越高,枝叶才能更加茂盛。从这个角度来看,华为鸿蒙的确是国之重器。上至国家部门,下至黎明百姓,都对鸿蒙寄予厚望。
需要指出的是,鸿蒙一直宣称自己是面向物联网的 *** 作系统,与安卓系统有本质的区别。事实也的确如此,鸿蒙并不是在重复造轮子,而是下一代 *** 作系统。 鸿蒙对标的不是谷歌安卓,而是谷歌的物联网 *** 作系统Fuchsia OS 。那么,鸿蒙与目前的 *** 作系统相比,先进在哪里,鸿蒙是否就是未来 *** 作系统的终点呢?
这篇文章,我们将讨论鸿蒙与目前 *** 作系统的主要差别,描绘鸿蒙想要实现的“理想国”。此外,鸿蒙目前还只是一个半成品,更先进的 *** 作系统,是云 *** 作系统。接下来,我们将展开讨论。
说明:目前很多云厂商都宣称自研了云 *** 作系统,他们所谓的云 *** 作系统,实际上是云资源管理平台,不是真正的 *** 作系统。什么才是云 *** 作系统,目前还不能给一个完整的定义。不过,真正的云 *** 作系统应该要具备以下几个特征:可以直接调度CPU,控制CPU计算进程;融合了目前的计算节点管理与单服务器 *** 作系统,在云数据中心实现计算资源的自由调度;整个 *** 作系统横跨云服务器、边缘计算服务器、智能设备三端,实现云边端的协同; *** 作系统上的应用程序主要部署在云服务器,基于云原生实现应用开发,并且一处开发,一处部署,多端接入,多端应用。
我们从 *** 作系统的本质入手来讨论其演进的内在逻辑。大体上看, *** 作系统在整个计算架构中起着承上启下的作用:对下, *** 作系统的主要作用是控制计算、存储、网络和I/O设备;对上,则支撑应用软件,协助应用软件调用计算、存储等软硬件资源。 *** 作系统还通过I/O设备实现人机交互。比如,电脑的人机交互就是鼠标+键盘作为输入,屏幕作为输出;手机的人机交互,主要的输入和输出介质都是屏幕。此外,还有摄像头、扬声器等输入输出设备。
*** 作系统的演进,核心就是针对不同的终端计算设备,来变革对软硬件资源的调用方式,更好的支撑上层应用软件,提供更友好的人机交互方式。
对数据的计算、存储、传输,是整个计算体系的核心,计算机的发展也都是围绕这三个方面来开展的。总体上,计算体系的演进是两条腿走路:一方面,芯片本身提供的计算能力在飞速发展, 以前是CPU的摩尔定律主导,现在则是以AI为核心的异构计算挑大梁,终极形态就是量子计算芯片 。存储芯片也实现了很大的技术进步,存储能力大幅提升。另一方面,传输技术尤其是无限传输技术的进步,则改变着整个计算体系的资源组织方式。最典型的就是数据传输能力的提升,拉近了数据中心与智能终端的“距离”,催生出云计算这种新的计算资源组织方式。云计算并没有提升整个体系的计算能力,而是通过重新组织提升了整个体系的资源利用效率。
传输能力并不是线性增长,而是阶梯式发展的。无限通信技术历经1G/2G/3G/4G,目前正在进行5G通信网络的建设。几年之后,整个 社会 的数据传输能力会得到一次质的飞跃。在整个计算体系中,计算、存储、传输是紧密相关的,传输能力的提升会改变计算、存储资源的组织方式。更大的带宽、更低的延迟,进一步拉近了数据中心(包括边缘计算中心)与智能终端的距离,计算、存储资源会在智能终端和数据中心之间进行重新分配。 一旦整个传输网络可以支撑数据中心和智能终端之间进行大量数据的实时传输,那么计算、存储资源就会向云端集中,终端则“退化”为一个人机交互界面 。手机、电脑的核心是人机交互,只需要保留屏幕、键盘、鼠标等输入输出设备和数据传输设备,无需再保留CPU、存储芯片(即使会保留部分计算、存储能力,低端芯片就完全够用)。智能终端输入数据,传输到云端进行计算、存储,然后传输到终端进行显示。
面对数据中心-智能终端组成的新计算体系,计算、存储、I/O进行了重新分配,在物理上分离开了。这个时候, *** 作系统就需要横跨数据中心和智能终端,根据需要调用相应的计算资源。并且,由于数据中心的服务器承担了大部分的计算、存储功能,对数据中心资源的调配则成为新 *** 作系统的核心。相对而言,对电脑、手机这些终端的调配则显得没那么重要了。
相对于安卓 *** 作系统,鸿蒙并不是重复造轮子,是有重大创新的。最核心的创新就是致力于通过软总线来替换硬总线。在以前的 *** 作系统中,无论是电脑端的Windows系统,还是手机端的Android、IOS系统,在通信线路上都是硬总线。在一整个电路板上通过物理的实体电路来连接各个计算单元(包括计算、存储、I/O),实现各部分数据的传输。
实体电路在空间上有很大限制,如果能够通过无线电磁波来进行各个计算单元的数据传输,就可以在空间上大大解放智能终端。各个计算单元不再必须安装在一个电路板上,在空间上可以实现分离。如果再通过标准化将各个计算单元进行解耦,进而实现不同计算单元的自由组合,这一下子就打开了智能计算的想象空间。如果将几台电脑、手机放在一起,对于以前的 *** 作系统,这些智能设备都是独立的个体,一个系统 *** 作一台设备,不同设备之间没有联系;而 对于鸿蒙 *** 作系统而言,他们不再是独立的设备,而是一堆可以利用的计算单元,是一堆CPU、存储,系统可以根据需要来自由组合这些计算单元 。比如,要运行一个大型 游戏 ,一台电脑的配置不够,就调动周围几台电脑、手机的CPU组成一个计算资源池,共同支撑计算需求。
除了对计算、存储资源的自由调度,软总线技术在I/O设备上有更大的应用潜力。过去几十年,由于芯片制造工艺的快速发展,总体遵循摩尔定律,计算机在CPU、存储上取得很大的提升,以至于现在一台手机提供的计算能力,就超过以前的超级计算机。但是,在I/O设备方面却进展缓慢。除了键盘、鼠标、屏幕,电脑上就增加了一个摄像头和扬声器。很长一段时间,更高像素的摄像头是智能手机厂商之间实现差异化的关键。 如果把智能计算设备与人进行类比,CPU相当于大脑,各种I/O设备相当于四肢,则计算机可谓一直处于“头脑发达,四肢简单”的状态 。
之所以会如此,就是因为不同计算单元需要用硬总线来进行连接。比如,手机摄像头必须要安装在手机上,因而摄像头不能做的很大。如果通过软总线技术,如果把摄像头“拆下来”呢?智能手机只承担核心的计算、存储、显示、交互功能,其他功能通过各种专用设备实现,然后通过电磁波将专用设备与手机连接起来,这些专用设备就像“装在手机里”一样。这种情况下,手机摄像头就解除了物理限制,可以把像素做的很高,甚至与单反相机媲美(事实上,可以直接将单反相机与手机连接起来)。更进一步,为什么不能将手机、电脑与天文望远镜连接起来呢?通过手机、电脑 *** 控望远镜,把看到的美景实时记录下来,还可以分享给好友,或者进行在线直播。
通过软总线技术,鸿蒙 *** 作系统可以让计算机的“四肢”异常的发达。 鸿蒙系统可以“穿透”智能设备,直接利用设备内部的计算、存储、感知单元。在鸿蒙的“眼里”,面对的不再是一个个独立的智能设备,而是一堆可以自由组合的计算模块。 手机、电脑,可以很轻易的与打印机、摄像机、微波炉、电视、空调、洗衣机、冰箱、 汽车 、电表、水表、体重秤、跑步机等设备进行连接。手机是“大脑”,其他设备则是“四肢”。
为什么以前没想到要用软总线来代替硬总线呢?因为以前的无线通信技术很不成熟。总体上看,通过物理线路来进行数据传输,在带宽、传输速度上还是有很大优势。软总线要替换硬总线,就必须要扩大数据传输的带宽,同时提升传输速率,降低延迟,这也是华为鸿蒙系统能否成功的关键。以目前的情况来看,鸿蒙只能说还在路上,软总线技术取得了一些突破,但要完美替换硬总线,依然还有一定距离。
依据相关数据,目前华为鸿蒙的软总线,已经达到18G的带宽、10毫秒延迟、35%的抖动。 10毫秒的延迟,对于一些实时性要求不高的业务场景还可以接受,但对于一些实时控制系统显然还是不够的。所以,鸿蒙接下来的关键就是把数据延迟压下去,把带宽提升来。 这肯定是有很大的技术难度,会涉及到WIFI、蓝牙等通信协议的大幅度修改。如果上述技术指标能够接近硬总线,鸿蒙软总线所带来的优势就会得到释放。依据华为内部的说法,他们目前正致力于攻克分布式计算,有望将软总线的时延压低到微秒级。如果真的可以实现,那鸿蒙必将大放异彩,中国的国产 *** 作系统也才迎来了真正的春天,我们拭目以待吧。
虽然鸿蒙相比于上一代 *** 作系统,已经实现了很大的进步(或者说致力于实现很大的进步,关键在于软总线是否能在时延、带宽上赶上甚至超越硬总线)。但是,鸿蒙很可能不是下一代 *** 作系统的理想形态。与鸿蒙相比,云计算 *** 作系统更具有发展潜力。
那么,云 *** 作系统与鸿蒙 *** 作系统的关键区别是什么呢?
鸿蒙虽然比安卓更进一步,但本质上还是一个本地化的 *** 作系统,核心功能也是调配终端设备的计算资源。 所以,鸿蒙需要安装在手机、电脑、电视这种终端设备上。与之相比,云 *** 作系统则是安装在数据中心的服务器上。或者说,云 *** 作系统的主体在服务器上,终端设备上的系统只是起辅助作用。
云 *** 作系统的核心也在软总线(我们暂且将其定义为软总线,即通过无线通信方式连接不同计算单元),只是其软总线的载体是5G构建的广域网;与之相比,鸿蒙软总线的核心是蓝牙、WIFI等近场通信构建的局域网。在传输领域,有线宽带和无线通信是竞合关系。在无线通信内部,1G~5G网络,也和蓝牙、WIFI存在竞合关系。上一代主要是4G网络与WIFI的竞争,下一代则是5G网络与WIFI的竞争。总体上,大家更看好5G网络。云 *** 作系统将主要建立在5G基础上,有线宽带、WIFI、蓝牙也会发挥作用。
数据的计算、存储由数据中心(包括边缘数据中心)的服务器来完成,智能终端主要保留两个功能,数据收集和人机交互。云 *** 作系统横跨云端服务器和智能终端来实现资源调配。要实现这个目标,关键是5G网络在带宽、时延、稳定性这些技术指标上能否达到硬总线的水平。与4G基站不同,5G将是宏基站与微基站(甚至更小的皮基站)相互配合,微基站或者皮基站其实就相当于室内WIFI。 从理论上来看,核心光通信网络+5G宏基站+5G微基站+皮基站,是可以实现对整个数据传输链路的全覆盖的。云 *** 作系统也必然是基于5G,将5G通信网络作为其“软总线”的载体。
当然,以上只是对理想情况的设想。 目前,无论是5G还是云计算,都还处于初级发展阶段,5G技术还没成熟,5G网络覆盖也远未完成。尤为关键的是,5G网络在带宽、延迟这些技术性能上与硬总线相比还存在不小的差距。总体上看,5G和云计算的技术发展很快,协同效应越来越明显。 通过5~10年的时间,5G的带宽、延迟指标会得到大幅度提升,5G网络的建设也基本成熟。再加上边缘计算的发展,云数据中心-边缘计算中心-智能终端,将形成紧密配合的计算体系,届时就可以支撑云 *** 作的发展。
我们不妨大胆设想一下,加入实现了云 *** 作系统,整个计算体系会面临什么样的变革。云 *** 作与原来的 *** 作系统有什么不同,与鸿蒙所代表的物联网 *** 作系统又有什么不同。云 *** 作系统可以实现鸿蒙系统的一系列设想,而且可以比鸿蒙做的更好。下面,我们来具体分析。
下一代 *** 作系统一定是面向物联网的,需要基于物联网设备来进行设计。在物联网领域有一个根本的难题——如何平衡设备智能化与成本控制?
某种程度上,计算能力就是智能程度。一个设备能够提供的算力越强,能够解决的问题就越多。计算能力的主要载体是芯片,越强的芯片越贵。 按照以往的逻辑,要对一台设备进行智能化改造,核心就是通过嵌入更强大的芯片来让其具备计算能力,这必然会大幅增加设备的成本。
在为物联网设计 *** 作系统时,有两个因素需要重点考虑:
物联网设备数量巨大,因此必须降低成本。 如果每台物联网设备都安装芯片,这样的成本是难以承受的。试想一下,台灯、冰箱、空调,甚至水表、电表,都安装CPU和存储芯片,这些设备的价格必然会大幅度上升(目前物联网设备中的各种嵌入式芯片计算能力较弱,比电脑、手机芯片所能提供的计算能力小很多,因而其智能化程度有限)。
物联网设备的核心在于感知和控制,不在于计算。 未来,不仅家庭里会有各种智能设备,城市中也会密布各种传感器来监控城市的水、电、气等供应体系的状态。这些物联设备,核心作用是传感器和控制器,一方面将感知到的图像、电压等数据传入系统,另一方面依据指令来进行相应的 *** 作,比如关闭阀门、调整摄像头角度等。
基于物联网设备的特点,要解决上述成本与智能化的矛盾,最好的办法就是将计算与感知、 *** 控分离开来:物联网终端承担数据感知和 *** 控的功能,把数据计算功能放到云端或者边缘计算端来完成。通过云 *** 作系统,物联网设备可以安心做“四肢”,而将“大脑”放在云端或边缘端的服务器上。物联网设备上不用安装昂贵的芯片,依然可以获得强大的数据计算能力,以此来实现低成本的智能化改造。
将数据计算功能从物联网终端剥离出来,还有一个很重要的作用,那就是推动物联网设备在计算上的标准化。
我们知道, *** 作系统跟计算芯片是高度耦合的。电脑上的微软 *** 作系统+英特尔芯片,手机端的安卓系统+高通芯片都是如此。 *** 作系统往往与芯片相互配合,共同演进。无论是英特尔的电脑芯片,还是高通的手机芯片,都是高度标准化的。与之不同,物联网设备中的嵌入式芯片却是各式各样、千差万别,这就为 *** 作系统的发展设置了很大的障碍。如果在芯片上不能实现统一,要用一套 *** 作系统去适配多种多样的物联网芯片,系统性能必然会大打折扣。
如果通过云边端协同的方式,把物联网设备的计算芯片统一放到云端或者边缘端的服务器上,则可以很好地解决这个问题。服务器上的芯片是可以做到高度统一的,云 *** 作系统只需要适配云服务器上的芯片。 *** 作系统是调用硬件资源来完成计算任务,如果将计算任务集中到云端,那就屏蔽了本地终端设备的差异性。在云 *** 作系统看来,无论是电脑、手机、平板还是车机、电视,本质上都是一块屏幕, *** 作起来都一样。
鸿蒙+物联网嵌入式芯片,只是一种过渡方案,终极方案还是云 *** 作系统+云端标准计算芯片的方式。当然,实现上述的云边端协同是一条漫长的道路。在未来几年内,物联网上的嵌入式芯片依然会是主流方案。 这种情况下,华为的鸿蒙系统就不得不要去兼容各种各样的嵌入式芯片,这是一个很大的难题。 不过反过来看,通过鸿蒙系统来倒逼物联网芯片的标准化,也可以推动我国芯片和物联网产业的发展,这也算鸿蒙的一大贡献。
以上从硬件计算资源的调度方面来分析云 *** 作系统的优势。下面,我们从应用软件的角度来看看云 *** 作系统可能的未来。
在计算架构中, *** 作系统与芯片耦合,应用软件则与 *** 作系统耦合。同样的一个应用软件,如果要从一个 *** 作系统迁移到另一个 *** 作系统,需要重新开发。比如电脑端的微信和手机端的微信,虽然功能都一样,腾讯却要要基于Windows和安卓系统开发两次。同样在移动端,微信也要基于苹果的IOS系统再开发一次。 功能都一样,却因为不同的 *** 作系统重复开发多次,这无疑是巨大的浪费。 试想一下,面对各式各样的物联网设备,如果软件厂商也要对不同的设备进行多次开发,那简直不能忍受。
所以,一次开发,多端适配,是物联网 *** 作系统的刚需,这也是鸿蒙尽力要实现的目标。 *** 作系统是与计算芯片耦合的,面对多样化的嵌入式物联网芯片,鸿蒙必然要做出一些个性化适配,上面承载的应用软件也要做出相应的适配,这会增加一些开发难度。如果强行屏蔽底层芯片的差异,很可能会损害系统的性能,表现出来就是系统容易卡、稳定性差。
如果是云 *** 作系统,由于计算芯片本身就是统一的,云 *** 作系统主体部署在云端服务器上。相应的,上层应用的主体也部署在云服务器上。终端设备就是一个人机交互界面,大部分情况就是一块触摸显示屏(在部分场景中再加上语音交互)。终端智能设备是一个访问云端应用的入口。无论是从手机、电脑还是电视、车机,甚至是从电冰箱、电梯广告屏幕上访问,接入的都是云端的同一个应用软件。这天然就没有应用适配的问题。
鸿蒙想要实现的是一处开发多端部署。而云 *** 作系统可以实现的是一处开发,一处部署,多端应用。这种方式,在应用软件的标准化、性能表现等方面,比多端部署的方案更优。
我们以一个应用场景来举例说明:
华为鸿蒙项目负责人在一次媒体采访中提到,鸿蒙的目标是让应用跟着人走,而不是锁定在特定的设备上。比如,当用户用手机与家人进行视频通话时,不用一直拿着手机,当用户走到客厅的时候,视频电话就自动接到电视上。这如果能实现,真的是一个很大的进步。现在的 *** 作系统,别说手机和电视打通,就是手机与平板电脑都不能打通。
在这个方案中,手机和电视都安装了鸿蒙系统,这毕竟是两个独立的设备,视频应用需要从手机传到电视上。我们用传球来做类比:面对一个运动的人,如何更好地把球传到他手里呢?目前的安卓、IOS *** 作系统,球只能锁定在一个人手里,如果用户离开这个是没办法拿到球的;鸿蒙要实现的是,有多个人进行相互传球,当用户离开A走到B附近时,A就把手里的球传给B,然后B再把球传给用户;云 *** 作系统的解决方案是,球依然只在A手里,但A站的比较远,传球能力很强,无论用户走到那里,他都可以把球直接传过去。这样,就省去了中间把球从A传到B的过程。
目前,云计算的重心,已经从基础设施的虚拟化转向云原生应用的开发。云原生应用的目标就是一处开发,多端应用。 届时,本地终端是只是一个网络接入和人机交互的设备,并不需要部署应用。每个人有特定的应用账户,这个账户与其生物特征绑定(比如人脸、指纹),从任何终端都可以轻易接入云端应用中心,真正实现应用随人走。
电脑、手机作为个人应用的私密性将大大降低。每个人的电脑、手机之所以私密性强,最关键的是很多数据存储在本地端,并且,每个人下载的应用软件也不同,桌面的布局也独具特色。自己电脑用习惯了,别人的电脑用起来就总会感觉别扭。在云 *** 作系统时代,这一切都会改变。本地终端几乎不再存储数据,别人拿着你的电脑,只要不能登录你的账户,也看不到你的任何信息。此外,云端不仅存储个人数据,也会存储你的电脑和手机桌面,你安装了什么软件,这些软件如何布局的,都可以完整的还原出来。
电脑、手机本质上就是一块屏幕,跟安装在 汽车 、冰箱、洗衣机上的屏幕没什么区别,都只是接入云数据中心的一个入口而已。 当你自己没带电脑,借用同事电脑办公时,只需登录自己的云端账户,同事电脑桌面立马跟你的一模一样。用完退出账户之后,你的一切使用记录在本地端都消失了(实际上本地端本来就没有做任何数据记录,只是一个显示屏)。你挥一挥衣袖,不带走一片云彩,你和你的同事都没有数据安全的担忧。
更进一步的,大部分设备都退化为屏幕后,设备本身的价值就大大降低了,整个智能硬件的商业模式将发生根本的变革。手机、电脑终端由于不再追求高配置的计算和存储芯片,成本大幅度降低,进而这些电子产品的价格大幅度降低。原先6000元的电脑、手机,也许只需要2000元。另一方面,消费者虽然不需要买芯片,但需要为使用芯片付费。依据对计算、存储、网络资源的消耗量,以及使用的时间来进行付费。比如,用1000元的手机可以玩王者荣耀,看4K**,但是每小时需要付费1元钱。 与企业端的云服务类似,个人消费者市场也全面进入云服务时代。
这对于用户也是有好处的:在C端的计算领域也实现“以租代售”,不用一次性付出几千元来购买昂贵的电子设备,有助于改善用户现金流;用户可以获得几乎无限的计算能力,突破单台设备的算力限制。当需要运行大型 游戏 的时候,可以获得超高的算力配置,并且只为这一段时间付费。单个用户只要愿意付费,可以通过获得目前超级计算机一样的计算能力。
如果将应用部署在云端,实现应用随人走,届时,各种触摸屏可能在城市中随处可见(毕竟,只是一块屏幕,成本比电脑要低很多),这些屏幕可以作为共享计算机。用户可以通过指纹识别、人脸识别等方式,在任何屏幕上便捷地登陆自己的云端账户,将这块屏幕变成自己的计算机。使用完毕退出账户后,设备上不会留有任何痕迹,也没有数据泄露的风险。这对于经常需要移动办公的人而言,会带来巨大的便利,他们不用再背着一台电脑到处跑,因为“电脑”随处可见,用完即走。
综上, 鸿蒙比目前的安卓系统更进一步,但依然不是最终的方案。 需要指出的是,云 *** 作系统是需要一定的前提条件的,5G网络要足够成熟强大,云边端协同体系已经完备,这需要很长的时间来完善。在这个过程中,鸿蒙系统不失为一种很好的方案。
最后,我们再来看看在云 *** 作系统领域,都有哪些玩家。大体来看,云 *** 作系统会有三类玩家:以往的 *** 作系统企业,领先的云计算企业,互联网应用巨头。
*** 作系统本身具有一定的连续性,微软、谷歌、苹果这类 *** 作系统厂商,在云 *** 作系统领域依然会是重要玩家,并且,他们依然具有很强的竞争优势。尤其是微软,其服务器 *** 作系统占据最大的市场份额,会慢慢向真正的云 *** 作系统演进。华为目前已经推出了鸿蒙,虽然鸿蒙不是终极的云 *** 作系统,但却是目前最好的物联网 *** 作系统。通过鸿蒙进化成云计算 *** 作系统,也比安卓等系统更方便。并且,鸿蒙在软总线技术上有积累,再加上华为领先的5G,华为云也具有不熟的实力,因而华为鸿蒙是未来云 *** 作系统的有力竞争者。
除了 *** 作系统企业,头部云计算巨头也是未来云 *** 作系统的有力竞争者。(再次说明下,目前云厂商所声称的云 *** 作系统,实际上是云资源管理平台,还不是真正的云 *** 作系统)。阿里云、AWS、谷歌云等,将其目前所谓的云 *** 作系统进行升级,做成真正的 *** 作系统,也未可知。
此外,还存在一类云 *** 作系统玩家,那就是个别互联网应用巨头。最典型的就是腾讯(微信),其次是阿里巴巴(钉钉)。以微信为例,通过小程序,把自己变成一个应用开发平台,微信本身 *** 作系统化。微信账户就是云 *** 作系统的账户,登陆微信然后打开各种小程序,跟登陆云桌面打开各种应用软件类似。因此,微信也是 *** 作系统的重要玩家。此外,钉钉也在逐步把自己变成开发平台,也在 *** 作系统化。
在未来的云 *** 作系统之争中,中国将是美国的有力竞争者。国内华为、阿里巴巴、腾讯,都将是重要玩家。可以预见,未来的 *** 作系统,不再只是美国的企业的天下。中国 *** 作系统的自主化,是值得期待的。
文:凝视深空 / 数据猿
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)