服务器百问百答听说惠普推出了家庭服务器产品,能否介绍一下它们的功用?

服务器百问百答听说惠普推出了家庭服务器产品,能否介绍一下它们的功用?,第1张

服务器服务器是指在网络环境下运行相应的应用软件,为网上用户提供共享信息资源和各种服务的一种高性能计算机,英文名称叫做SERVER。
服务器既然是一种高性能的计算机,它的构成肯定就与我们平常所用的电脑(PC)有很多相似之处,诸如有CPU(中央处理器)、内存、硬盘、各种总线等等,只不过它是能够提供各种共享服务(网络、Web应用、数据库、文件、打印等)以及其他方面的高性能应用,它的高性能主要体现在高速度的运算能力、长时间的可靠运行、强大的外部数据吞吐能力等方面, 是网络的中枢和信息化的核心。由于服务器是针对具体的网络应用特别制定的,因而服务器又与微机(普通PC)在处理能力、稳定性、可靠性、安全性、可扩展性、可管理性等方面存在很大的区别。而最大的差异就是在多用户多任务环境下的可靠性上。用PC机当作服务器的用户一定都曾经历过突然的停机、意外的网络中断、不时的丢失存储数据等事件,这都是因为PC机的设计制造从来没有保证过多用户多任务环境下的可靠性,而一旦发生严重故障,其所带来的经济损失将是难以预料的。但一台服务器所面对的是整个网络的用户,需要7X24小时不间断工作,所以它必须具有极高的稳定性,另一方面,为了实现高速以满足众多用户的需求,服务器通过采用对称多处理器(SMP)安装、插入大量的高速内存来保证工作。它的主板可以同时安装几个甚至几十、上百个CPU(服务器所用CPU也不是普通的CPU,是厂商专门为服务器开发生产的)。内存方面当然也不一样,无论在内存容量,还是性能、技术等方面都有根本的不同。另外,服务器为了保证足够的安全性,还采用了大量普通电脑没有的技术,如冗余技术、系统备份、在线诊断技术、故障预报警技术、内存纠错技术、热插拔技术和远程诊断技术等等,使绝大多数故障能够在不停机的情况下得到及时的修复,具有极强的可管理性(man ability)。
通常,从所采用的CPU(中央处理器)来看,我们把服务器主要分为两类构架:
一部分是IA(Intel Architecture,Intel架构)架构服务器,又称CISC(Complex Instruction Set Computer复杂指令集)架构服务器,即通常我们所讲的PC服务器,它是基于PC机体系结构,使用Intel或与其兼容的处理器芯片的服务器,如联想的万全系列服务器,HP公司的Netserver系列服务器等。这类以"小、巧、稳"为特点的IA架构服务器凭借可靠的性能、低廉的价格,得到了更为广泛的应用,在互联网和局域网内更多的完成文件服务、打印服务、通讯服务、WEB服务、电子邮件服务、数据库服务、应用服务等主要应用,一般应用在中小公司机构或大企业的分支机构。目前在IA架构的服务器中全部采用Intel(英特尔)公司生产的CPU,从Intel生产CPU的历史来看,可以划分成两大系列:早期的80x86系列及现在的Pentium系列。早期的80x86系列可以包括:8088、8086、80286、80386、80486。自 80486之后,Intel对自己的产品进行了重新命名,并进行注册,因此80486以后的产品形成了Pentium(奔腾)系列的CPU。 Pentium系列的CPU目前包括:Pentium、Pentium MMX、Pentium Pro、PII、PII Xeon(至强)、PIII、PIII Xeon、P4 Xeon、Celeron2(赛扬)等。
另一部分是比IA服务器性能更高的服务器,即RISC(Reduced Instruction Set Computing精简指令集)架构服务器,这种RISC型号的CPU一般来讲在我们日常使用的电脑中是根本看不到的,它完全采用了与普通CPU不同的结构。使用RISC芯片并且主要采用UNIX *** 作系统的服务器,如Sun公司的SPARC、HP(惠普)公司的PA-RISC、DEC公司的Alpha芯片、SGI公司的MIPS等等。这类服务器通常价格都很昂贵,一般应用在证券、银行、邮电、保险等大公司大企业,作为网络的中枢神经,提供高性能的数据等各种服务。

什么是可视化?
种类繁多的信息源产生的大量数据,远远超出了人脑分析解释这些数据的能力。由于缺乏大量数据的有效分析手段,大约有95%的计算被浪费,这严重阻碍了科学研究的进展。为此,美国计算机成像专业委员会提出了解决方法——可视化。可视化技术作为解释大量数据最有效的手段而率先被科学与工程计算领域采用,并发展为当前热门的研究领域——科学可视化。 可视化把数据转换成图形,给予人们深刻与意想不到的洞察力,在很多领域使科学家的研究方式发生了根本变化。可视化技术的应用大至高速飞行模拟,小至分子结构的演示,无处不在。在互联网时代,可视化与网络技术结合使远程可视化服务成为现实,可视区域网络因此应运而生。它是SGI公司在2002年3月提出的新理念。它的核心技术是可视化服务器硬件和软件。 科学可视化的主要过程是建模和渲染。建模是把数据映射成物体的几何图元。渲染是把几何图元描绘成图形或图像。渲染是绘制真实感图形的主要技术。严格地说,渲染就是根据基于光学原理的光照模型计算物体可见面投影到观察者眼中的光亮度大小和色彩的组成,并把它转换成适合图形显示设备的颜色值,从而确定投影画面上每一像素的颜色和光照效果,最终生成具有真实感的图形。真实感图形是通过物体表面的颜色和明暗色调来表现的,它和物体表面的材料性质、表面向视线方向辐射的光能有关,计算复杂,计算量很大。因此工业界投入很多力量来开发渲染技术。
可视化硬件
可视化硬件主要是图形工作站和超级可视化计算机。图形工作站广泛采用RISC处理器和UNIX *** 作系统。具有丰富的图形处理功能和灵活的窗口管理功能,可配置大容量的内存和硬盘,具有良好的人机交互界面、输入/输出和网络功能完善,主要用于科学技术方面。1997年SGI推出了不用总线的UMA结构O2工作站。它采用高带宽的存储器系统,取消了视频卡、图形卡、图像卡。图形处理、图像处理、视频处理、存储器和主存储器用一个统一的存储器系统代替,带宽可达到21GB/s。CPU和视频显示可直接访问统一的存储器系统。此外,它还有一个单独的窗口界面,能让用户通过该窗口访问Web站点,而一个文件列表在窗口顶部,方便用户对媒体资源进行管理。 2000年SGI推出强力台式工作站Octane2。Octane2把具有突破性的新一代Vpro3D图形系统、先进的交叉开关(Crossbar)结构和最新的MIPS RISC处理器有机地结合在一起。有了Octane2及其空前的精确性、交互性和快速的图形功能,用户可以解决最富有挑战性的三维造型、可视化及图形处理问题。Octane2含有集成在一块芯片上的OpenGL 12的核心功能及图像扩展的部分硬件加速功能。可用硬件实现镜面光照计算、能够快速准确地展现曲面,并具有48比特RGBA功能。它是当今高水准的可视化台式工作站。它可为用户提供双通道的双头显示。 2000年7月SGI推出了可视化与超级计算完美结合的Onyx 3000系列超强图形系统。 Onyx 3000在模块化方面迈出了一大步。系统硬件由7种模块构成:图形扩展模块G-brick,基本输入/输出扩展模块I-brick,PCI扩展模块P-brick,高性能I/O扩展模块X-brick,路由器互连扩展模块R-brick,CPU扩展模块C-brick和磁盘扩展模块D-brick。全机采用NUMA3体系结构。高性能的模块化连通性有利于把超级计算能力和可视化处理无缝集成。全机可由2个CPU扩展到512个CPU。Onyx3000采用InfiniteReality3图形处理流水线,可实时地对三维形体进行渲染。其中包括色彩、透明、纹理、光照等功能。 2002年2月SGI推出Onyx3000IP机,采用性能更好的Infinite Performance图形处理流水线,速度更快、图形更精致。Onyx3000其卓越的性能和灵活性可使用户得到惊人的视觉真实效果,并充分保护用户的投资。
可视化软件
可视化软件一般分为三个层次。 第一层是 *** 作系统,该层的一部分程序直接和硬件打交道,控制工作站或超级计算机各种模块的工作,另一部分程序可进行任务调度,视频同步控制,以TCP/IP方式在网络中传输图形信息及通信信息。 第二层为可视化软件开发工具,它用来帮助开发人员设计可视化应用软件。 第三层为各行各业采用的可视化应用软件。 大多数可视化工作一般都在图形工作站上进行,少数大型的、需要协同工作的可视化工作在超级图形计算机上进行。 SGI是视算技术的先驱之一,在强有力的高速图形硬件支持下,SGI推出了一系列功能强大的可视化软件开发工具,如IRISGL(图形库)、IL(图像库)、VL(视频库)、ML(库)、CASE Vision(软件工程可视化开发工具)等,其中IRISGL后来被工业界接受,成为业界开放式标准,称为OpenGL。 OpenGL支持一种立即方式的接口,信息可以直接流向显示器。SGI还开发出许多OpenGL的应用程序接口(API),如OpenGL Optimizer是一种多平台工具箱,提供高层次的构造、交互 *** 作,在CAD/CAM/CAE和AEC的应用中提供最优的图形功能。OpenGL Volumizer是体渲染的突破性工具,便于对基于体素的数据集可视化。OpenGL Performer是实时三维图形渲染工具。OpenGL Inventor是三维视景处理工具。Open GL VizServer是一种提供远程可视化服务的工具。 自从OpenGL推出以来,已有两千多个三维图形应用软件在其上开发出来。如A/W公司的三维动画软件Maya、PTC公司的CAD/CAM/CAE应用软件Pro/Engnieer。Landmark公司的石油勘探与开发软件R2003,MultiGen公司的视景仿真软件Paradigm等。
可视化区域网络
当前推动图形技术进步的动力是: ·随着数据的不断增长,能提供商品化的图形渲染产品; ·随着数据的不断增长,能经济地提供大量数据的宽带网络; ·为了加强协作,要求为全球性的团体提供全球化的数据。 解决以上三个问题的核心技术是:采用可扩展的图形计算机,例如Onyx3000和采用OpenGL VizServer远程可视化服务器软件。采用OpenGLVizServer后,可以使通用的客户机设备通过网络访问先进的可视化计算资源。 以Onyx超强可视化计算机和远程可视化服务器软件OpenGL VizServer为核心的可视化区域网络(VAN)可供全球性的群体利用一般的客户机通过互联网访问放置在某处的超强可视化计算资源。
为什么VAN现在可行?
五年前,由于技术上的原因,人们集中在开发先进的图形渲染技术。而当前主要的问题是如何使图形渲染产品变得更便宜。今后五年内主要问题是如何使图形渲染结果能供任何地方的群体和个人使用。 要解决以上问题可采用VizServer 20软件,这可以使全球任何地方的团体和个人得到图形渲染的结果,这是实现可扩展的、协同式的、全球可得到的图形关键。VizServer消除了要和先进的图形渲染系统必须有形连接的障碍,使得协同研究可以不受地理位置的限制,实现应用透明的协作。
VizServer如何工作?
·图形渲染完全在超强的可视化计算资源(如Onyx3000)上实现; ·图形渲染结果一帧一帧地通过网络传送给客户端; ·客户端对图形渲染结果解压缩。 客户端只要发送控制流,而后端的可视化资源根据客户要求发送数据流(见附图)。在VAN中首先要有先进的可视化结点,例如可采用机构级的Onyx3000或部门级的Onyx300或个体级的SiliconGraphicsFuel工作站或Onyx3000先进可视化计算机,其次要采用远程可视化服务器软件OpenGLVizServer20。VizServer的应用性能、带宽均能满足在当前现有网络上经济地传送图形渲染结果的要求。
远程可视化服务器的应用
SGI公司在加拿大演示了远程可视化服务。2001年11月8日SGI宣布该公司进行的远程可视化服务试验获得了成功。这次演示的目的在于展示SGI公司基于SGIOpenGLVizServer技术开发的SGI可视化服务环境的各种功能和整体性能。SGI公司从2001年6月到8月,在CANARIE公司贯穿整个加拿大的高带宽网——CAnet3上进行了这次远程可视化服务试验。所使用的OpenGLVizServer解决方案使得运行IRIX、Linux、Solaris或WindowsNT *** 作系统的普通台式机用户也能够使用SGI Onyx3000系列高性能可视化系统的所有功能。这一解决方案实现了广大网络用户通过网格共享网格上的数据、计算能力以及可视化系统等资源。所谓的网格计算是一种通过Internet或专用网络,将分布在不同地理位置的各种计算资源,如超级计算机、机群、存储系统和可视化系统,进行互联,形成一个资源整体的方法。 这次试验使用了位于McConnell大学McConnell脑图像研究中心的一台SGIOnyx系列可视化系统,并从距离该中心100到1900英里远的城市远程运行这一系统生成的各种图形显示和 *** 作功能。试验的结果再次证实了桌面工作站能够交互地访问位于蒙特利尔的一台SGIOnyx系列系统上生成的图形,可视化服务使任何用户都能够通过网格,与超级计算结果进行交互。现在,全加拿大的科学家都能够使用位于加拿大境内任何地方计算的可视化资源,并且能够在他们的桌面电脑上对这些资源实现交互可视化。 SGI公司在格拉斯哥的科学中心召开了该公司的可视化峰会,其间,SGI以生动的方式向观众展示了可视化区域网络概念的最新进展。有了可视化区域网络,科学家和工程师能在一个地方进行数据存储和处理;然后,所有人都可以使用网络上的任意一台客户端设备,单独地或者通过现有网络协同地 *** 作这些数据,这样,世界各地的外科医生、科学家、工程师和创新型技术人员就都可以利用高性能计算机的强大功能了。

服务器CPU,顾名思义,就是在服务器上使用的CPU(Center Process Unit中央处理器)。众所周知,服务器是网络中的重要设备,要接受少至几十人、多至成千上万人的访问,因此对服务器具有大数据量的快速吞吐、超强的稳定性、长时间运行等严格要求。下面是我收集整理的服务器cpu是什么,欢迎阅读。


服务器cpu是什么

服务器的中央处理器(CPU),在内部结构上是跟台式机的差不多,它们都是由运算器和控制器组成,CPU的内部结构可分为控制单元,逻辑单元和存储单元三大部分。当然工作原理也是一样。随着两者的需求和发展,台式机和服务器的处理器在技术、性能指标等各方面都存在并存的现象,一个最明显的现象,像Intel的奔腾系列产品,一直应用于服务器的低端领域。但不代表着服务器CPU与台式机将会完全一样,下面内容会让你对服务器CPU有个全方位的了解……

一、产品篇

厂商

32bit 64bit

CISC型 VLIM型 RISC型

IA-32 X86-64 IA-64

AMD64 EM64T

Intel Pentium、Xeon Nocona Itanium

AMD Athlon MP Opteron

Transmeta

(全美达) Efficeon

IBM/Apple POWER、POWERPC

HP PA-RISC、Alpha

SGI MIPS

SUN UltraSPARC

上面简单把服务器处理器列了一下表,我们可以很清晰看出,服务器处理器按CPU的指令系统来区分,有CISC型CPU和RISC型CPU两类,后来出现了一种64位的VLIM指令系统的CPU,这种架构也叫做“IA-64”。目前基于这种指令架构的MPU有Intel的IA-64、EM64T和AMD的x86-64。RISC型的CPU是我们比较不熟悉的'类型,下面一一介绍;

IBM:

IBM 的四条处理器产品线 —— POWER 体系结构,PowerPC 系列的处理器,Star 系列(很少用于服务器中),以及 IBM 大型机上所采用的芯片

POWER 是 Power Optimization With Enhanced RISC 的缩写,是 IBM 的很多服务器、工作站和超级计算机的主要处理器。POWER 芯片起源于 801 CPU,是第二代 RISC 处理器。POWER 芯片在 1990 年被 RS 或 RISC System/6000 UNIX 工作站(现在称为 eServer 和 pSeries)采用,POWER 的产品有 POWER1、POWER2、POWER3、POWER4,现在最高端的是 POWER5。POWER5 处理器是目前单个芯片中性能最好的芯片。POWER6计划 2006 年发布。

PowerPC 是 Apple、IBM 和摩托罗拉(Motorola)联盟(也称为 AIM 联盟)的产物,它基于 POWER 体系结构,但是与 POWER 又有很多的不同。例如,PowerPC 是开放的,它既支持高端的内存模型,也支持低端的内存模型,而 POWER 芯片是高端的。最初的 PowerPC 设计也着重于浮点性能和多处理能力的研究。当然,它也包含了大部分 POWER 指令。很多应用程序都能在 PowerPC 上正常工作,这可能需要重新编译以进行一些转换。从 2000 年开始,摩托罗拉和 IBM 的 PowerPC 芯片都开始遵循 Book E 规范,这样可以提供一些增强特性,从而使得 PowerPC 对嵌入式处理器应用(例如网络和存储设备,以及消费者设备)更具有吸引力。PowerPC 体系结构的最大一个优点是它是开放的:它定义了一个指令集(ISA),并且允许任何人来设计和制造与 PowerPC 兼容的处理器;为了支持 PowerPC 而开发的软件模块的源代码都可以自由使用。最后,PowerPC 核心的精简为其他部件预留了很大的空间,从新添加缓存到协处理都是如此,这样可以实现任意的设计复杂度。IBM 的 4 条服务器产品线中有两条与 Apple 计算机的桌面和服务器产品线同样基于 PowerPC 体系结构,分别是 Nintendo GameCube 和 IBM 的“蓝色基因(Blue Gene)”超级计算机。现在,三种主要的 PowerPC 系列是嵌入式 PowerPC 400 系列以及独立的 PowerPC 700 和 PowerPC 900 系列。而PowerPC 600 系列,是第一个 PowerPC 芯片。它是 POWER 和 PowerPC 体系结构之间的桥梁。现在的PowerPC970,采用013微米SOI工艺制造,其内只有一颗CPU核心,带有512K 芯片内L2 cache。

HP:

HP(惠普)公司自已开发、研制的适用于服务器的RISC芯片——PA-RISC,于1986年问世。目前,HP主要开发64位超标量处理器PA-8000系列。第一款芯片的型号为PA-8000,主频为180MHz,后来陆续推出PA-8200、PA-8500、PA-8600、PA-8700、PA-8800型号。还有一个就是HP的“私生子”Alpha。(Alpha处理器最早由DEC公司设计制造,在Compaq公司收购DEC之后,Alpha处理器继续得到发展,后来又被惠普公司收购)

HP于2002年开始就公布了其两大RISC处理器——PA-RISC和Alpha的发展计划,其中PA-RISC与Alpha处理器至少要发展到2006年,对基于其上的服务器的服务支持将至少持续到2011年。2006年,HP将会推出PA-8900。而对于Alpha的发展,惠普公司于已经于2004年八月份发布了其面向AlphaServer Unix服务器的最后一款处理器产品——EV7z。

SUN:

1987年,SUN和TI公司合作开发了RISC微处理器——SPARC。Sun公司以其性能优秀的工作站闻名,这些工作站的心脏全都是采用Sun公司自己研发的Sparc芯片。SPARC微处理器最突出的特点就是它的可扩展性,这是业界出现的第一款有可扩展性功能的微处理。SPARC的推出为SUN赢得了高端微处理器市场的领先地位。

1999年6月,UltraSPARC III首次亮相。它采用先进的018微米工艺制造,全部采用64位结构和VIS指令集,时钟频率从600MHz起,可用于高达1000个处理器协同工作的系统上。UltraSPARC III和Solaris *** 作系统的应用实现了百分之百的二进制兼容,完全支持客户的软件投资,得到众多的独立软件供应商的支持。

根据Sun公司未来的发展规划,在64位UltraSparc处理器方面,主要有3个系列,首先是可扩展式s系列,主要用于高性能、易扩展的多处理器系统。目前UltraSparc Ⅲs的频率已经达到750GHz。将推出UltraSparc Ⅳs和UltraSparc Ⅴs等型号。其中UltraSparc Ⅳs的频率为1GHz,UltraSparc Ⅴs则为15GHz。其次是集成式i系列,它将多种系统功能集成在一个处理器上,为单处理器系统提供了更高的效益。已经推出的UltraSparc Ⅲi的频率达到700GHz,未来的UltraSparc Ⅳi的频率将达到1GHz。最后是嵌入式e系列,为用户提供理想的性能价格比,嵌入式应用包括瘦客户机、电缆调制解调器和网络接口等。Sun公司还将推出主频300、400、500MHz等版本的处理器。

SGI

MIPS技术公司是一家设计制造高性能、高档次及嵌入式32位和64位处理器的厂商,在RISC处理器方面占有重要地位。1984年,MIPS计算机公司成立。1992年,SGI收购了MIPS计算机公司。1998年,MIPS脱离SGI,成为MIPS技术公司。

MIPS公司设计RISC处理器始于二十世纪八十年代初,1986年推出R2000处理器,1988年推R3000处理器,1991年推出第一款64位商用微处器R4000。之后又陆续推出R8000(于1994年)、R10000(于1996年)和R12000(于1997年)等型号。

随后,MIPS公司的战略发生变化,把重点放在嵌入式系统。1999年,MIPS公司发布MIPS32和MIPS64架构标准,为未来MIPS处理器的开发奠定了基础。新的架构集成了所有原来NIPS指令集,并且增加了许多更强大的功能。MIPS公司陆续开发了高性能、低功耗的32位处理器内核(core)MIPS324Kc与高性能64位处理器内核MIPS64 5Kc。2000年,MIPS公司发布了针对MIPS32 4Kc的版本以及64位MIPS 64 20Kc处理器内核。

MIPS技术公司是一家设计制造高性能、高档次及嵌入式32位和64位处理器的厂商。1986年推出R2000处理器,1988年推出R3000处理器,1991年推出第一款64位商用微处理器R4000。之后,又陆续推出R8000(于1994年)、R10000(于1996年)和R12000(于1997年)等型号。1999年,MIPS公司发布MIPS 32和MIPS 64架构标准。2000年,MIPS公司发布了针对MIPS 32 4Kc的新版本以及未来64位MIPS 64 20Kc处理器内核。

希望这些能帮到你:

按照不同的分类标准,服务器分为许多种,主要有按网络规模、按架构(芯片)、按用途、按外观

1、按网络规模划分

按网络规模划分,服务器分为工作组级服务器、部门级服务器、企业级服务器。

工作组级服务器

用于联网计算机在几十台左右或者对处理速度和系统可靠性要求不高的小型网络,其硬件配置相对比较低,可靠性不是很高。

部门级服务器

用于联网计算机在百台左右、对处理速度和系统可靠性中等的中型网络,其硬件配置相对较高,其可靠性居于中等水平。

企业级服务器

用于联网计算机在数百台以上、对处理速度和数据安全要求最高的大型网络,硬件配置最高,系统可靠性要求最高。

需要注意的是,这三种服务器之间的界限并不是绝对的,而是比较模糊的,比如工作组级服务器和部门级服务器的区别就不是太明显,有的干脆统称为“工作组/部门级”服务器。

2、按架构划分(芯片)

按照服务器的结构,可以分为CISC(复杂指令集)架构的服务器和RISC(精简指令集)架构的服务器:

IA架构服务器(IntelArchitectureServer)-即通常所讲的PC服务器,采用x86(CISC)芯片并且主要采用WindowsNT/Windows2000、Linux、FreeBSD等 *** 作系统的服务器,如IntelPentiumIII(P4)和Intel(P4)Xeon(至强)等。

RISC架构的服务器指采用非英特尔架构技术的服务器,使用RISC芯片并且主要采用UNIX *** 作系统的服务器,如SUN公司的SPARC、HP公司的PA-RISC、DEC的Alpha芯片、SGI公司的MIPS等;

由于RISC架构服务器的性能和价格比CISC架构的服务器高得多。近几年来,随着PC技术的迅速发展,IA架构服务器与RISC架构的服务器之间的技术差距已经大大缩小,用户基本上倾向于选择IA架构服务器,但是RISC架构服务器在大型、关键的应用领域中仍然居于非常重要的地位。

3、按用途划分

按照使用的用途,服务器又可以分为通用型服务器和专用型(或称“功能型”)服务器,如实达的沧海系列功能服务器。

通用型服务器是没有为某种特殊服务专门设计的可以提供各种服务功能的服务器,当前大多数服务器是通用型服务器。

专用型(或称“功能型”)服务器是专门为某一种或某几种功能专门设计的服务器,在某些方面具有与通用型服务器有所不同。如光盘镜像服务器是用来存放光盘镜像的,那么需要配备大容量、高速的硬盘以及光盘镜像软件。

4、按外观划分

按照服务器的外观,可以分为台式服务器和机架式服务器以及刀片服务器

①台式服务器有的采用大小与立式PC台式机大致相当的机箱,有的采用大容量的机箱,像一个硕大的柜子一样,主要分为单塔式和双塔式

②机架式服务器的外形看起来不像计算机,而是像交换机,有1U(1U=175英寸)、2U、4U等规格机架式服务器安装在标准的19英寸机柜里面。

总体分为这几大类:
VPS服务器:VPS是一台实体主机虚拟成多个小主机,其中的CPU、内存都是共享的,有的时候一台机器上面可能会几十、上百个VPS。一旦这台实体主机挂了,它上面所有VPS也都会跟着遭殃,性能往往得不到保障。
云服务器:云服务器是数量庞大的服务器阵列,在均衡负载之后诞生很多虚拟主机,集群中每个服务器上都有云主机的一个镜像,除非所有的集群内服务器全部出现问题,云主机才会无法访问。所以无论是数据安全还是性能都有基本的保证。而且在云主机上,IP、CPU、内存这些都是独享隔离开的,不会出现大家抢内存,谁都跑不动的情况。
专用/独立服务器:是一台真实的服务器/主机,这台主机是单独的 只让你自己使用,你可以让服务器更换硬盘 更换内存等 *** 作,不会出现有第二个人占用你的资源

在谈到服务器之前,我们有必要先了解一下什么是计算机网络。从组成结构来讲,计算机网络就是通过外围的设备和连线,将分布在相同或不同地域的多台计算机连接在一起所形成的集合。从应用的角度讲,只要将具有独立功能的多台计算机连接在一起,能够实现各计算机间信息的互相交换,并可共享计算机资源的系统便可称为网络。随着人们在半导体技术(主要包括大规模集成电路LSI和超大规模集成电路VLSI技术)上不断取得更新更高的成就,计算机网络迅速地涉及到计算机和通信两个领域。一方面通过网络为计算机之间数据的传输和交换提供了必要的手段,另一方面数字信号技术的发展已渗透到通信技术中,又提高了通信网络的各项性能。计算机网络从诞生至今,一共经历了四个阶段的发展过程。
第一代计算机网络大约产生于1954年,当时它只是一种面向终端(用户端不具备数据的存储和处理能力)的计算机网络。 1946年,世界上第一台计算机(ENIAC)问世。此后的几年中,计算机与计算机之间还没有建立相互间的联系。当时,电子计算机因价格和数量等诸多因素的制约,很少有人会想到在计算机之间进行通信。1954年,随着一种叫做收发器(Transceiver)的终端研制成功,人们实现了将穿孔卡片上的数据通过电话线路发送到远地的计算机上的梦想。以后,电传打字机也作为远程终端和计算机实现了相连。
第二代计算机网络出现在1969年。刚才我们已经谈到了,早期的第一代计算机网络是面向终端的,是一种以单个主机为中心的星型网络,各终端通过通信线路共享主机的硬件和软件资源。而第二代计算机网络则强调了网络的整体性,用户不仅可以共享主机的资源,而且还可以共享其他用户的软、硬件资源。第二代计算机网络的工作方式一直延续到了现在。如今的计算机网络尤其是中小型局域网很注重和强调其整体性,以扩大系统资源的共享范围。
第三代计算机网络出现在70年代。从所周知,早期计算机之间的组网是有条件的,在同一网络中只能存在同一厂家生产的计算机,其他厂家生产的计算机无法接入。这种现象的出现,一方面与当时的环境有关,因为当时的计算机还远远没有现在这样普及,一个大单位能够用上一台计算机就算不错了,更谈不上实现计算机之间的互联;另一方面与未建立相关的标准有关,当时的计算机网络只是部分高等学府或笠研机构针对自己的工作特点所建立的,还未能在大范围内(如不同的单位之间)进行连接,并且也缺乏一个统一的标准。针对这种情况,第三代计算机网络开始实现将不同厂家生产的计算机互联成网。1977年前后,国际标准化组织成立了一个专门机构,提出了一个各种计算机能够在世界范围内互联成网的标准框架,即著名的开放系统互联基本参考模型OSI/RM。简称为OSI。OSI模型的提出,为计算机网络技术的发展开创了一个新纪元。现在的计算机网络便是以OSI为标准进行工作的。
第四代计算机网络是在进入20世纪90年代后,随着数字通信的出现而产生的,其特点是综合化和高速化。综合化是指采用交换的数据传送方式将多种业务综合到一个网络中完成。例如人们一直在用一种与计算机网络很不相同的电话网传送语音住处但是,现在已经可以将多种业务,如语音、数据、图像等住处以二进制代码的数字形式综合到一个网络中来传送。
诸位不要以为笔者写走题儿了,介绍计算机网络的组成不过是为了把何谓服务器讲得更浅显些做个铺垫,因为四代计算机网络都是由服务器、工作站、外围设备和通信协议组成。而本文要向读者诸君介绍的服务器(Server)也正是整个网络系统的核心,它的存在就是为网络用户提供服务并管理整个网络的设备。服务器从外型来看,和普通的PC并没有什么两样,但其内部结构却与普通的个人PC机有着本质的不同。
如主板结构。服务器的主板从整个板型看,规格上比普通的ATX等类型主板都要大一些,但是仍然符合ATX标准。主要是由于特殊部件比较多,所以在布局方面和普通主板不尽相同。由于服务器主板对稳定性的要求非常高,因此在电气结构上,服务器主板比普通PC主板要求技高一筹,从电流输入开始,服务器主板便大多采用了双电源设计,以防止意外发生。服务器主板的电源接口大都远离重要部件如CPU插槽和内存插槽。输出电路种大量采用了滤波电容和线圈,使得输出的电流尽量干净。而一般主板在电源接口上就没有这么讲究。电源接口和CPU插槽非常近,从电源接口的输入电流和对CPU供电电流进 行稳压和滤波的电容和线圈位置非常近,很难避免互相干扰。由于服务器数据处理量很大,所以大都采用多CPU并行处理结构,主板上有偶数个CPU插槽。值得一提的是,在服务器主板上,CPU插槽边上大都有很多电解电容,是做滤电流杂波用的。理想的滤波应该是多个不很大电容来进行,这样既可以保证杂波被过滤 掉,又不会降低电流。服务器的最大特点是数据总线和地址总线上的负载比较大,I/O流量也比 较服务器主板一般都有多个超级I/O芯片,分别控制不同设备,以及多个总线驱动芯片增强负载能力,提高信号质量。为了减缓I/O瓶颈压力,一般应用SCSI接口磁盘系统。另外,由于服务器对于图形和声音要求都不算太高,所以很多服务器主板上都集成了声卡和显示卡。但是为了进一步减少CPU占用率并提高稳定性能,在硬声卡和显卡方面大多采用ATI公司的显示芯片和新加坡CREATIVE(创新)公司的声卡芯片。与此同时,在服务器主板上还经常集成有网卡芯片(如INTEL公司的82559)和RAID卡槽等。
如性能指标。服务器的性能指标是以系统响应速度和作业吞吐量为代表的。响应速度是指用户从输入信息到服务器完成任务给出响应的时间。作业吞吐量是整个服务器在单位时间内完成的任务量。假定用户不间断地输入请求,则在系统资源充裕的情况下,单个用户的吞吐量与响应时间成反比,即响应时间越短,吞吐量越大。为了缩短某一用户或服务的响应时间,可以分配给它更多的资源。性能调整就是根据应用要求和服务器具体运行环境和状态,改变各个用户和服务程序所分配的系统资源,充分发挥系统能力,用尽量少的资源满足用户要求,达到为更多用户服务的目的。
如扩展性能。服务器的可扩展性能与普通个人PC的升级有着本质的不同,其具体表现在两个方面:一是留有富余的机箱可用空间,二是充裕的I/O带宽。随着处理器运算速度的提高和并行处理器数量的增加,服务器性能的瓶颈将会归结为PCI及其附属设备。高扩展性意义在于用户可以根据需要随时增加有关部件,在满足系统运行要求的同时,又保护投资。
如可用性。服务器的可用性是以设备处于正常运行状态的时间比例作为衡量指标,例如999%的可用性表示每年有8小时的时间设备不能正常运行,99999%的可用性表示每年有5分钟的时间设备不能正常运行。部件冗余是提高可用性的基本方法,通常是对发生故障给系统造成危害最大的那些部件(例如电源、硬盘、风扇和PCI卡)添加冗余配置,并设计方便的更换机构(如热插拔),从而保证这些设备即使发生故障也不会影响系统的正常运行,而且要使系统能及时恢复到正常的部件冗余程度。
如可管理性。可管理性旨在利用特定的技术和产品来提高系统的可靠性,降低系统的购买、使用、部署和支持费用,最显著的作用体现在减少维护人员的工时占用和避免系统停机带来的损失。服务器的管理性能直接影响服务器的易用性。可管理性是TCO各种费用之中所占比例最大的一项。有研究表明,系统的部署和支持费用远远超过了初次购买所花的费用,而付给管理和支持人员的报酬又是其中所占份额最高的。另外,工作效率的降低、商业机会的丧失和营业收入的下滑所带来的财务损失也不可忽视。因此,系统的可管理性既是IT部门的迫切要求,又对企业经营效益起着非常关键的作用。可管理性产品和工具可通过提供系统内部的有关信息而达到简化系统管理的目的。通过网络实现远程管理,技术支持人员在自己的桌面上即可解决问题,不必亲赴故障现场。系统部件可自动监视自己的工作状态,如果发现故障隐患可随时发出警告,提醒维护人员立即采取措施保护企业数据资产,故障部件更换的 *** 作也非常简单方便。
由上所述,网络时代为服务器的应用提供了越来越广阔的空间,在网络技术和应用快速发展的今天,作为网络核心的服务器其重要性日益突出,服务器也由此进入了技术、应用和市场互动并迅速发展的新阶段。Unix *** 作系统由于其功能强大、技术成熟、可靠性好、网络及数据库功能强等特点,在计算机技术特别是 *** 作系统技术的发展中具有重要的不可替代的地位和作用。尽管Unix系统受到了NT的严峻挑战,但它仍是目前唯一能在各个硬件平台上稳定运行的 *** 作系统,并且在技术成熟程度以及稳定性和可靠性等方面仍然领先于NT。但在WINDOWS的不断追击下,Unix系统转向IA-64体系也是大势所趋,这里我们不妨来进一步看一下其经历的历程。
1994年,HP和Intel公司联合开发基于IA-64的Merced芯片。
1997年12月,Sun宣布将其基于Unix的 *** 作系统Solaris向IA-64体系移植。
1998年1月,Compaq/Digital公司宣布与Sequent合作,将Digital Unix *** 作系统和Sequent的产品集成,向IA-64转移。
1998年4月,SGI宣布将其主流产品向IA-64转移。
1999年1月,IBM宣布开发支持下一代IA-64架构的Unix *** 作系统,将SCO的UnixWare以及Sequent的高端PTX *** 作系统纳入自己的AIX环境,形成一个专门针对IA-64或Merced的Unix,同年,IBM收购Sequent。
因此,Unix系统转向IA-64体系已成为业界的大趋势,最重要的是,诸多Unix厂商对它的支持将打破以往Unix和Wintel两大阵营的对立,将Unix所具备的开放性发挥到顶峰,真正实现应用系统的跨平台使用,为用户提供最大的灵活性。
与IA-32位处理器相比,IA-64位处理器除增加数据宽度外,还结合CISC和RISC技术,采用显式并行指令计算(EPIC)技术,通过专用并行指令编译器尽可能将原代码编译解析为可并行 *** 作的“并行机器码”,完全兼容IA-32应用,保证了用户的可持续使用性。


欢迎分享,转载请注明来源:内存溢出

原文地址: https://outofmemory.cn/zz/12607541.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-26
下一篇 2023-05-26

发表评论

登录后才能评论

评论列表(0条)

保存