不久前,全球首款亿级并发云服务器系统在天津正式量产,该产品是“十二五”国家863计划信息技术领域“云计算关键技术与系统(二期)”重大专项的成果。
那么,什么是云服务器,和云计算又有什么关系?这款云服务器有何特殊之处呢?
什么是云计算?
(来源于网络)
云计算是一种基于互联网的计算方式。狭义的云计算是指以计算、存储为核心的IT硬件、软件乃至IT基础设施资源以服务形式进行交付和使用的模式,指用户可以通过网络以按需、易扩展的方式获得所需的IT资源。广义的云计算泛指服务的交付和使用模式,指用户通过网络以按需、易扩展的方式获得所需的服务,这种服务既可以是IT硬件、软件、互联网技术相关的,也可以是任意其他的服务。
一般说来,云计算具有大规模、资源池化、快速d性、泛在接入访问、按需自服务、服务可计量等特征,如果说互联网是一个神经网络的话,云计算就是它的中枢神经,云计算将互联网的核心硬件层,核心软件层和互联网信息层统一起来,并进行管理、调度,为互联网各系统提供支持和服务。在理想状态下,互联网使用者和物联网传感器通过网络线路和计算机终端与云计算进行交互,向云计算提供数据,接受云计算提供的服务。
目前,世界经济较发达国家和地区大多推出政策支持云计算核心技术的革新——在2012年,欧盟启动了“释放欧洲云计算潜力”的战略计划;在2014年,美国国家标准与技术研究所发布了《美国政府云计算技术路线图》;我国也在《国家“十二五”规划纲要》中把云计算列为重点发展的战略性新兴产业,提出构建下一代信息基础设施,加强云计算服务平台建设。可以说,云计算将成为世界各国抢占科技经济发展制高点的途径之一。
什么是云服务器?
(来源于网络)
云服务器是专门面向云计算需求的服务器,最大的特点就在于性能功耗比和整体服务能力较传统架构服务器有显著提升。传统通用服务器架构搭建的数据中心,优点是可以应对各种场景,然而,采用这种万精油式的产品进行数据中心的搭建,也带来相应的弊端,其中很重要的一点就是,没有针对性,各项指标表现平平。然而云数据中心应对的任务中,各自场景并非平均分布,相反云数据中心每天需要应对大量的高并发访问及信息查询,同时,又对计算量要求不高,这就造成了云数据中心每天疲于应付海量并发,而计算性能却白白浪费掉,同时能耗大也是采用服务器面临的问题。对于云计算应用中大量网络托管、网页服务器集群等网络带宽密集型应用而言,平均CPU利用率仅为20%左右,造成了成本的浪费。
相比之下,云服务器体系构架有别于传统的服务器,以本次曙光发布的全球首款亿级并发云服务器系统来说,该产品放弃了通用服务器所采用的芯片组,针对云计算业务应用的特点进行了优化,用3D Torus网络实现节点服务器的互联,实现单路直连高耦合体系架构,其中每个处理器可以独占25bpsG带宽,可以实现快速响应。在结构上大幅精简,实现散热、电源、管理监控模块、计算、网络全共享,不仅降低了成本,又提高了系统的稳定性和可靠性。
解决了硬件资源虚拟化技术难题
随着云计算、大数据时代的到来,云计算中心和数据中心部署的集群系统规模都非常大,计算节点大多以千为单位计算,在计算节点如此之多的情况下,要提高效率和效能,就离不开资源共享——当应用需要性能很强的时候,就配置高一些,把内存、网络、计算资源多占一些,当应用需要性能不强的时候,就配置低一些,把内存、网络、计算资源释放一些。
然而,传统服务器是独立架构,无法从硬件上实现服务器间资源共享。虽然可以通过软件,从上层来进行资源分配,但是这种做法会带来额外的开销,导致性能损失。而这恰恰与云计算中心和数据中心的运营者要求的高效率和高能效相违背。本次量产的全球首款亿级并发云服务器则实现了从硬件上来实现资源共享,把存储、网络、计算资源池化,根据用户的需求来配置,根据应用不同来提供不同的配置。亿级并发云服务器内部设计有一套高性能互连网络,确保从硬件上进行资源共享时性能损失非常小。
实现硬件资源共享,有两个关键,一个是在体系结构上做出革新,比如存储共享架构、网络共享架构等等,另一个是要在硬件上能够实现,包括系统控制器、高性能互连网络、通信协议等等。
在体系结构上,该产品采用的是分布式资源共享架构。曾经有国外公司主张做集中式资源共享——把存储、网络、计算资源按类别集中放置,通过互连网络连起来,想用多少资源去远端去取就可以了,但这种体系结构的灵活性不不足,当系统规模扩大到一定规模,就会带来很多问题。如果是几十个节点还好说,上百个节点都去一个地方取资源的话一定会有瓶颈。曙光公司提出并实现了一种分布式资源共享架构,相对于集中式资源共享架构,分布式资源共享的好处在于存储、网络等资源以计算为核心分布在处理器周边,处理器本地资源可以自己优先使用,不够的话可以去远端别的处理器那去取,这样可扩张性和整机效率就远远高于集中式资源共享。
在硬件上来实现则是要有性能足够好的CPU、互连网络、存储等硬件,虽然在CPU上采用的是Intel的产品,但互连网络是曙光自主研发的,而且还实现了全面而完备的硬件资源虚拟化——计算,存储,网络,内存等都是基于硬件协议层来实现共享的,比如存储,基于SATA/SAS协议的共享控制器实现了存储资源的虚拟化。
必须说明的是,虽然硬件虚拟化的理念人所共知,而且也知道是未来的大趋势,但如何去实现就是另一回事了。
实际上,国外也在向服务器硬件虚拟化方向发展,但至今未见成功的产品面世。与国外的情况相反,在云服务器硬件虚拟化上,中国不仅在技术上实现了,而且做出了工业化量产的产品,更可贵的是,还在实际应用中取得了效果。相比之下,还没有国外厂能做到这一步,换言之,在云服务器硬件虚拟化上,中国已经走在外国前列。
云服务器相对于传统服务器具有哪些优势
云服务器相对于传统服务器有多大优势呢?就以曙光公司发布的云服务器为例,一台32 CPU的云服务器日处理>
高并发处理能力有和意义呢?12306自开通以来,几乎每年春运都会出现系统崩溃,无法订票或查询的现象,这一方面是因为访问量实在太高且超出了服务器的处理能力,另一方面是因为采用传统架构服务器的数据中心应对海量并发访问的能力不足。如果不从根本上解决传统架构与云应用不匹配的问题,单纯地加大硬件投入,堆砌并发数,不仅无法解决日益上升的高并发访问,还会导致成本、空间、能耗的上升,对于解决系统崩溃问题于事无补。而云服务器恰恰是针对高并发要求、低计算场景的要求而研制的,对于应对大量的高并发访问场景可谓得心应手。
除了强悍的并发处理能力外,云服务器在密度和功耗上的特性也使其具备一定优势——当前较大的数据中心服务器集群由超过百万台服务器组成,不少数据中心的功耗往往超过20MW,数据中心电费成本已经在使用维护成本中占到很大比例,而电力和空间都是相对宝贵的资源,能够节能降耗和减少服务器空间占用,对于数据中心而言意义重大。
正是因为云服务器在能效比、空间和成本上相对于现有的整机柜服务器有巨大的优势,使得数据中心的拥有者、运营者、甚至使用者都对云服务器青睐有加,云服务器也将随着云计算、大数据的兴起而获得广阔的市场。
出品:科普中国
制作:铁流
监制:中国科学院计算机网络信息中心
“科普中国”是中国科协携同社会各方利用信息化手段开展科学传播的科学权威品牌。
本文由科普中国融合创作出品,转载请注明出处。
不同于顺序服务器, 并发服务器 就要能在一个时间为多个客户端提供服务。 例如,一个 聊天服务器 可能服务一个特定的客户端数小时 不同于顺序服务器, 并发服务器 就要能在一个时间为多个客户端提供服务。 例如,一个 聊天服务器 可能服务一个特定的客户端数小时 ──在停止为这个客户端服务之前服务器不能等待, 除非是在等待一下个客户端到来之前的间隙才能等待。── 在停止为这个客户端服务之前服务器不能等待, 除非是在等待一下个客户端到来之前的间隙才能等待。 >有什么方法衡量服务器并发处理能力1 吞吐率
吞吐率,单位时间里服务器处理的最大请求数,单位req/s
从服务器角度,实际并发用户数的可以理解为服务器当前维护的代表不同用户的文件描述符总数,也就是并发连接数。服务器一般会限制同时服务的最多用户数,比如apache的MaxClents参数。
这里再深入一下,对于服务器来说,服务器希望支持高吞吐率,对于用户来说,用户只希望等待最少的时间,显然,双方不能满足,所以双方利益的平衡点,就是我们希望的最大并发用户数。
2 压力测试
有一个原理一定要先搞清楚,假如100个用户同时向服务器分别进行10个请求,与1个用户向服务器连续进行1000次请求,对服务器的压力是一样吗?实际上是不一样的,因对每一个用户,连续发送请求实际上是指发送一个请求并接收到响应数据后再发送下一个请求。这样对于1个用户向服务器连续进行1000次请求, 任何时刻服务器的网卡接收缓冲区中只有1个请求,而对于100个用户同时向服务器分别进行10个请求,服务器的网卡接收缓冲区最多有100个等待处理的请求,显然这时的服务器压力更大。
压力测试前提考虑的条件
并发用户数: 指在某一时刻同时向服务器发送请求的用户总数(>
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)