关于服务器与主机之间的关系

关于服务器与主机之间的关系,第1张

服务器与PC主机是根本不同的。在信息系统中,服务器主要应用于数据库和Web服务,而PC主要应用于多媒体技术和网络终端,根本应用上的差异决定了服务器具备比PC更强大的存储能力、更快捷的故障恢复功能和更广阔的扩展空间,同时服务器还必须提供PC主机所不具备的数据备份功能。这些技术指标都是一台服务器所必备的要素,也在一定程度上成为了区分PC与服务器的标准。这些区别也就体现在服务器所具备的4性(“Scalability”(可扩展性)、“Usability”(可用性)、“Managbility”(可管理性)、“Availability”(实用性))上,服务器的这4性通常缩写成“SUMA”,它是公认的衡量服务器性能的标准。服务器和PC主机之间的根本区别也可从这4性中一一体现。
首先服务器应该是高度可扩展的,可扩展是指服务器的硬件配置,如内存、适配器、硬盘、处理器等,可以在原有的基础上很方便根据需要来增加。服务器具有较多的PCI、PCI-X之类的插槽,较多的驱动器支架及较大的内存扩展能力。提供冗余电源、冗余风扇,使得用户的网络扩充时,服务器也能满足新的需求,保护用户的投资。在服务器的扩展性方面现在有许多品牌都提出“按需扩展”的概念,当然这主要在中、高档服务器中才有。如在IBM 企业级x架构服务器技术中所提出的“XpandOnDemand”就是这样一种技术 。在中、低档服务器中通常要求主板能提供多处理器支持特性,虽然目前企业只需要用到单CPU,但最好能提供一个以上CPU插座升级余地。对于这些小型企业和新兴企业,较快的业务成长性是其突出特点,这就对其使用的服务器的扩展性提出了特殊的要求。
服务器的可用性其实就是要求服务器具有高的可靠性,具有高稳定性,不要时不时死机、出故障,尽量少出现停机待修现象。服务器因为多数情况下是要求连续工作的,所以它的可靠非常重要,在发生故障时需要一种快捷的方式来恢复服务。PC发生系统故障时,一般采用恢复注册表、重新安装系统等方式来排除故障并恢复系统的正常运行,数据的丢失损失也仅限于单台电脑。服务器则完全不同,许多重要的数据都保存在服务器上,许多网络服务都在服务器上运行,一旦服务器发生故障,将会丢失大量的数据,造成的损失是难以估计的。因此,对服务器可靠性的要求是非常高的。
目前,提高可靠性的一个普遍做法是部件的冗余配置和内存查、纠错技术。如服务器一般采用具有查、纠错能力的ECC内存,IBM的服务器有的还采用了专门的具有ChipKill超强查、纠错能力的内存、RAID技术、热插拔技术、冗余电源、冗余风扇、等方法使服务器具备容错能力、安全保护能力,从而提高可靠性。当然,最让人想起的“大机箱”也是必需的,因为服务器中的设备多,发热多,有大的机箱才有足够的空间散热,确保系统的稳定性。
另外服务器还需要具备系统、数据备份功能,所以也就至少需要提供数据存储设备所需的接口。目前数据备份最常采用的是磁带,而目前的磁带机所用接口通常都是SCSI接口的,所以这就要求服务器主板上留有SCSI接口,以备安装磁带机用(中、高档服务器通常是已自配磁带机的),实现企业系统、数据有效备份。使企业通过最可靠的单键灾难恢复技术,在服务器故障发生时用最短的时间恢复整个系统,为服务器的顺利工作提供了强有力的保障。当然系统、数据备份还可采用光盘库等媒体。
服务器的实用性是从服务器的处理能力上来讲的,多数情况下讲服务器要求具有高的运算处理能力,处理效率要高,所以所选配置通常是为服务器专门开发的,特别是CPU和主板,要选择服务器专用的。服务器是为网络上其他计算机提供服务的,由于服务器要将其数据、硬件提供给网络共享,在运行某些应用程序时要处理大量的数据,很有可能需要同时响应几十台、几百台甚至上千台计算机的请求,因此服务器的运算速度应该比普通PC快得多,带宽也要宽许多。这时对硬盘的运行速度也就有更高的要求,所以服务器硬盘通常要选择SCSI接口的。容量当然是比普通PC大许多了。
目前最主要的技术是通过采用对称多处理技术和群集技术来实现的。在总线带宽技术上通常也采用了特殊的技术,当然这在中、高档服务器中更能体现。
服务器的可管理性方面不仅指软件方面,在服务器的硬件方面同样需要具备一定的可管理性能,如预报警功能、系统监视功能等。服务器硬件方面的管理性能可以通过ISC(Intel Server Control,Intel服务器控制)技术来实现。EMP(Emergency Management Port,应急管理端口)技术也是一种服务器管理技术。这也是PC主机所不具备的。
通过以上的对比不难看出,服务器和PC是有着严格界定的,而且服务器的功能也是PC所不可能替代的。但是话又说回来,服务器说到底其实也是一种计算机,它也是由PC主机发展过来的,在早期网络不是很普及的时候,并没有服务器这个名称,当时在整个计算机领域只有大型计算机和微型计算机两大类,只不过随着网络,特别是局域网的发展和普及,“服务器”这个中间层次的计算机开始得到业界的接受。

“dos”是家用微型计算机早期使用的 *** 作系统,通常指运行在8086/8088
cpu上面的microsoft
dos,这个系统源自更早期的cp/m系统,特点是但用户、单任务,也就是说通常情况下同时只能运行一个程序(严格说是一个主程序外加若干tsr驻留程序),而且最初8086/8088内存寻址能力非常有限,只能访问640k+384k内存(实模式)。不过后期80286、80386处理器出现后,有一些给dos增加多用户、多任务支持的尝试,也就是将处理器置于“保护模式”下,借助80286、80386扩展页表管理更大范围内存并同时运行多个程序。但无论怎样扩展,dos的设计理念局限性决定了它不适合管理更大内存、运行更多程序、掌管更多外设资源,因此后来出现了多种多任务、单用户或者多用户的 *** 作系统。
linux的设计理念来自unix系统,unix从设计之初就考虑到多用户、多任务支持能力(见unix立项阶段的历史),因此linux最初在80386上实现了一个最小规模的保护模式内核,那是就已经具备了多任务(两个核心线程)调度功能。后来随着linux版本完善多任务、多用户能力越来越完善,支持的unix世界软件也越来越多,时至今日已经凭借其开源优势发展成一个可用于桌面电脑(家用、办公)、嵌入式设备(例如安卓手机、各种路由器)、网络服务器乃至超级电脑的通用 *** 作系统。

很多人都认为Linux服务器具有最好的生态系统,服务器端的各种软件都为它而设计。Linux系统之所以会成为目前最受关注的系统之一,主要原因是它的免费,以及系统的开放性,可以随时取得程序的原代码,这对于程序开发人员是很重要的。除了这些它还具有以下的优势:
Linux服务器优势1:良好的稳定性
Linux内核的源代码是以标准规范的32位(在64位CPU上是64位)的计算机来做的最佳化设计,可确保其系统的稳定性。正因为Linux的稳定,才使得一些安装Linux的主机像Unix机一样常年不关而不曾宕机。
Linux服务器优势2:丰富的软件支持
与其他的 *** 作系统不同的是,安装了Linux系统后,用户常用的一些办公软件、图形处理工具、多媒体播放软件和网络工具等都已无需安装。而对于程序开发人员来说,Linux更是一个很好的 *** 作平台,在Linux的软件包中,包含了多种程序语言与开发工具,如gcc、cc、C++、Tcl/Tk、Perl、Fortran77等。
Linux服务器优势3:可靠的安全性
Linux系统是一个具有先天病毒免疫能力的 *** 作系统,很少受到病毒攻击。
对于一个开放式系统而言,在方便用户的同时,很可能存在安全隐患。不过,利用Linux自带防火墙、入侵检测和安全认证等工具,及时修补系统的漏洞,就能大大提高Linux系统的安全性,让黑客们无机可乘。
Linux服务器优势4:完善的网络功能
Linux内置了很丰富的免费网络服务器软件、数据库和网页的开发工具,如Apache、Sendmail、VSFtp、SSH、MySQL、PHP和JSP等。近年来,越来越多的企业看到了Linux的这些强大的功能,利用Linux担任全方位的网络服务器。
Linux服务器优势5:多用户多任务
和Unix系统一样,Linux系统是一个真正的多用户多任务的 *** 作系统。多个用户可以各自拥有和使用系统资源,即每个用户对自己的资源(例如:文件、设备)有特定的权限,互不影响,同时多个用户可以在同一时间以网络联机的方式使用计算机系统。多任务是现代计算机的最主要的一个特点,由于Linux系统调度每一个进程是平等地访问处理器的,所以它能同时执行多个程序,而且各个程序的运行是互相独立的。
Linux服务器优势6:跨平台的硬件支持
由于Linux的内核大部分是用C语言编写的,并采用了可移植的Unix标准应用程序接口,所以它支持如i386、Alpha、AMD和Sparc等系统平台,以及从个人电脑到大型主机,甚至包括嵌入式系统在内的各种硬件设备。
Linux在它的追捧者眼里是一个近乎完美的 *** 作系统,它具有运行稳定、功能强大、获取方便等优点,因而有着广阔的前景。只要你不是有什么特殊的需求,那么你就可以采用Linux系统。可参考书籍《Linux就该这么学》了解更多Linux知识。

分类: 电脑/网络
解析:

超级计算机(Superputer)是一种领先世界的电子计算机。它的体系设计和运作机制都与人们日常使用的个人电脑有很大区别。现有的超级计算机运算速度大都可以达到每秒万亿次以上。因此无论在运算力及速度都是全球顶尖。超级计算第一次被使用是在“纽约世界”于1920年关于万国商业机器为哥伦比亚大学建造制表机的报导。

1960年代,超级电脑由希穆尔·克雷在控制数据公司里设计出来并带领市场直到1970年代克雷创立自己的公司克雷研究。凭着他的新设计,他控制了整个超级电脑市场,站在这个颠峰位置长达五年(1985-1990)。在1980年代,大量小型对手加入竞争,正值小型电脑市场萌芽阶段。在1990年代中叶,很多对手受不了市场的冲击而消声匿迹。今天,超级电脑成了一种由像国际商用机器公司及惠普等传统公司所特意设计的电脑。虽然这些公司透过不断并购增强自己经验,但克雷研究依然专业于超级电脑设计。

克雷-2-全球最快电脑(1985–1989)其实超级电脑一词定义不清,随时间演进,昨是而今非。控制数据公司的早期机器都是非常快的标量处理器,是其他公司的最快电脑十倍速度。1970年代,大部分超级电脑都是向量处理器,很多是新晋者自行开发的廉价处理器来攻占市场。1980年代中叶,适量的向量处理器并行地 *** 作成为标准。一般由8个到16个不等。1980年代初期,注意力由向量处理器转向大规模并行运算系统,由成千上万的普通处理器所组成。今天,并行设计建棋于精简指令集(RISC)处理器,譬如 PowerPC或PA-RISC及互联的电脑丛集。

软件
分布式运算所用的软件包括一些标准的应用编程接口(如信息传递接口及并行虚拟机器)及开放源码软件。例如openMosix可以把很多普通的电脑联合成虚拟超级计算器。零设定技术方便了即兴建立电脑丛集,而为超级电脑制作容易的编程语言仍然是运算科学的研究课题。

[编辑] 用途

超级电脑常用于计算密集的工作,譬如天气预测、气候研究、运算化学、分子模型、物理模拟、密码分析等等。

[编辑] 设计

超级电脑的创新设计在于把复杂的工作细分为可以同时处理的工作并分配于不同的处理器。他们在专门的运算表现突出,在处理一般工作时却差强人意。他们的记忆结构是经过小心设计来确保数据及指令及时送达。这微小的差别可以导致运算能力的巨大差别。输入/输出系统也有特殊设计来提供高带宽,但是延缓时间却不很重要,因为超级电脑不是用来处理交易。

根据Amdahl's law,超级电脑的设计都集中在减少软件上的序列化、用硬件在瓶颈上加速。

[编辑] 挑战与科技

超级电脑常产生高热,需要冷却。冷却是很大的HVAC问题。

资讯传送不能比光快。几米的距离导致几十纳秒的延误,而克雷著名的环型设计保持了最短距离。

超级电脑在短时间耗用及生产大量数据,需要投入很多资源确保资讯妥善传送及存取。

因超级电脑而开发的科技:

向量处理器

水冷技术

非均匀访存模型(NUMA)

资料分割 (RAID)

并行存取档案系统

[编辑] 处理技术

向量处理因超级电脑而建立并用于高性能运算。向量处理技术后来被用于普通电脑内的信号处理架构及单指令流多数据流(SIMD)。例如:电视游乐器、图像卡等。

[编辑] *** 作系统

超级电脑 *** 作系统虽然是UNIX的变种,但比较小型电脑的复杂一点。一般都倾向减少开发它的用户接口因为可以减少浪费资源在不必要的工作上。同样的道理应用到价值几百万的电脑身上。这个惯例延续到超级电脑,例如SGI都会使用NVIDIA。NVIDIA制造廉价、多功能、高性能的产品。

1980年代初期,超级电脑通常会为了追求性能而牺牲指令集的兼容性及运载速度。它们会使用不同类型的 *** 作系统。雷克-1曾使用6个专属 *** 作系统及并行向量版本的FORTRAN编译器。

[编辑] 编程

超级电脑的并行架构需要特别编程技术来提高速度。Fortran的专门编译器可以产生的源码,运行比C或C++的更快,所以Fortran仍然被选用作科学编程。为了开发超级电脑的并行性都使用紧接分享记忆的并行虚拟器及信息传递接口。

[编辑] 通用超级电脑的类型

大致上可以分为三种:

向量处理机器能为大量数据同时进行同样的运算。

丛集式处理器特别建立连接处理器及内存的通信网络,非均匀访存模型就是最常见的。最快的超级电脑就是使用这个科技。

商品电脑丛集使用高带宽低延误的网络来连接大量普通商品电脑。

根据摩尔定律及经济规模,一个现代的桌面电脑比15年前的超级电脑有更高性能,皆因某些超级电脑的设计已经放在桌面电脑内。再者,简单芯片的开发及生产成本比特意设计给超级电脑的更便宜。

超级电脑所处理的问题都适合并行化,当中减少处理单元之间的资料传送量。因此,传统的超级电脑可以被电脑丛集所代替。

[编辑] 专用超级电脑

专用超级电脑都是针对单一问题而开发的电脑。这些电脑都使用专门编程的FPGA芯片及超大型密集芯片,纵然牺牲普遍性也要提高成本效能比率。它们被用于天文物理学及密码破解之上。

例子:

深蓝, (下棋)

可再重设电算

GRAPE, 天文物理

Deep Crack, DES解码器

[编辑] 现今最快超级电脑

[编辑] 量度速度

超级电脑速度以每秒的浮点运算"FLOPS" 来作量度单位。

[编辑] 现在的超级电脑

2005年3月25日,IBM的Blue Gene/L原型变成了最快的超级电脑。它是单一机器安装了32768处理器,运算能力高达2806 TFLOPS (1012 FLOPS)。Blue Gene/L原型是PowerPC架构的修改版本,正式运作版本被推出到很多地点,包括罗兰士利物摩亚国家实验室(Lawrence Livermore National Laboratory)。2005年10月28日,虽然运算能力高,但比预期的360TFLOPS低,将来的版本会提高到05PFLOPS。以前,一台 Blue Gene/L安装了131072处理器,运算力高达1015TFLOPS。[1] 2005年11月,IBM Blue Gene/L 成了首500强超级电脑排名榜的第一名。[2]

现在Google server farm可算是世界上最高性能的超级电脑。

[编辑] 过往的超级电脑

在Blue Gene/L之前,最快的超级电脑是日本电气株式会社在横滨地球科学学院的地球模拟器。它是由640个特别设计的8阶向量处理器根据NEC SX-6架构所组成的丛集。它使用UNIX的修改版本。

面世的一刻,地球模拟器的速度是比以前最快的超级电脑(美国加州罗兰士利物摩亚国家实验室的ASCI White)还要快4倍。它的冠军位置维持了25年。

首500强超级电脑排名榜可见于 top500/ 。

[编辑] 类超级运算

某些分布式运算把丛集超级运算推至极限。例如SETI@home计划现在平均有7253TFLOPS运算能力。[3]

2005年5月16日,Folding@home声称拥有195TFLOPS运算能力。[4]

GIMPS运算能力也高达18TFLOPS。

Google的搜寻引擎系统总处理能力界乎于126及316TFLOPS之间。Tristan Louis估计这个系统等于32000至79000台双2 GHzXeon电脑。[5] 由于散热问题,Google的搜寻引擎系统应该属于网格运算。

[编辑] 超级电脑时间线

由古至今:

时期 超级电脑 极速 地点

1906 Babbage Analytical Engine, Mill 03 OPS 英国 艾萨斯 霍特福格兰 RW门罗

1938年 Zuse Z1 09 FLOPS 德国柏林Konrad Zuse的父母居所

1939年 Zuse Z2 09 OPS 德国柏林Konrad Zuse的父母居所

1941年 Zuse Z3 14 FLOPS 德国柏林德国气体动力学研究所(DVL)

1942年 Atanasoff Berry Computer (ABC) 30 OPS 美国衣阿华州立大学

1942年 TRE Heath Robinson 200 OPS 英国帕雷屈里庄园

1943年 TRE Colossus 5 kOPS 英国帕雷屈里庄园

1946年–

1948 U of Pennsylvania ENIAC 50 kOPS 美国马里兰州Aberdeen实验基地

1954年 IBM NORC 67 kOPS 美国维珍妮亚州海军试验基地

1956年 MIT TX-0 83 kOPS 美国麻省理工

1958年 IBM SAGE 400 kOPS 美国空军23号基地

1960年 UNIVAC LARC 500 kFLOPS 美国加州罗兰士利物摩亚国家实验室

1961年 IBM 7030 "Stretch" 12 MFLOPS 美国新墨西哥州洛斯-阿拉莫斯国家实验室

1964年 CDC 6600 3 MFLOPS 美国加州罗兰士利物摩亚国家实验室

1969年 CDC 7600 36 MFLOPS 美国加州罗兰士利物摩亚国家实验室

1974年 CDC STAR-100 100 MFLOPS 美国加州罗兰士利物摩亚国家实验室

1975年 Burroughs ILLIAC IV 150 MFLOPS 美国加州NASA恩斯研究中心

1976年 Cray-1 250 MFLOPS 美国新墨西哥州洛斯-阿拉莫斯国家实验室

1981年 CDC Cyber 205 400 MFLOPS (世界很多地方)

1983年 Cray X-MP/4 941 MFLOPS 美国新墨西哥州洛斯-阿拉莫斯国家实验室,波音公司

1984年 M-13 24 GFLOPS 苏联莫斯科计算机科学研究学院

1985年 Cray-2/8 39 GFLOPS 美国加州罗兰士利物摩亚国家实验室

1989年 ETA10-G/8 103 GFLOPS 美国佛罗里达大学

1990年 NEC SX-3/44R 232 GFLOPS 日本府中市NEC府中厂

1993年 Thinking Machines CM-5/1024 5970 GFLOPS 美国新墨西哥州洛斯-阿拉莫斯国家实验室; 美国国家安全局

1993年 Fujitsu Numerical Wind Tunnel 12450 GFLOPS 日本国家宇航实验室

1993年 Intel XP/S140 14340 GFLOPS 美国山迪亚国家实验室

1994年 Fujitsu Numerical Wind Tunnel 17040 GFLOPS 日本国家宇航实验室

1996年 Hitachi SR2201/1024 2204 GFLOPS 日本东京大学

1996年 Hitachi/Tsukuba CP-PACS/2048 3682 GFLOPS 日本筑波市筑波大学电算物理中心

1997年 Intel ASCI Red/9152 1338 TFLOPS 美国山迪亚国家实验室

1999年 Intel ASCI Red/9632 23796 TFLOPS 美国山迪亚国家实验室

2000年 IBM ASCI White 7226 TFLOPS 美国加州罗兰士利物摩亚国家实验室

2002年 NEC 地球模拟器 3586 TFLOPS 日本地球模拟器中心

2004年 IBM Blue Gene/L (32,768) 7072 TFLOPS 美国能源部/IBM

2005年 IBM Blue Gene/L (65,536) 1368 TFLOPS 美国能源部/NNSA/LLNL

2005年 IBM Blue Gene/L (131,072) 2806 TFLOPS 美国能源部/NNSA/LLNL

中国的超级电脑是曙光4000A。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zz/13046897.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-29
下一篇 2023-05-29

发表评论

登录后才能评论

评论列表(0条)

保存