服务器有什么功能,用途 ,什么样的公司需要服务器呢?希望有个朋友能帮我详细的讲解一下··谢谢

服务器有什么功能,用途 ,什么样的公司需要服务器呢?希望有个朋友能帮我详细的讲解一下··谢谢,第1张

服务器服务器是指在网络环境下运行相应的应用软件,为网上用户提供共享信息资源和各种服务的一种高性能计算机,英文名称叫做SERVER。
服务器既然是一种高性能的计算机,它的构成肯定就与我们平常所用的电脑(PC)有很多相似之处,诸如有CPU(中央处理器)、内存、硬盘、各种总线等等,只不过它是能够提供各种共享服务(网络、Web应用、数据库、文件、打印等)以及其他方面的高性能应用,它的高性能主要体现在高速度的运算能力、长时间的可靠运行、强大的外部数据吞吐能力等方面, 是网络的中枢和信息化的核心。由于服务器是针对具体的网络应用特别制定的,因而服务器又与微机(普通PC)在处理能力、稳定性、可靠性、安全性、可扩展性、可管理性等方面存在很大的区别。而最大的差异就是在多用户多任务环境下的可靠性上。用PC机当作服务器的用户一定都曾经历过突然的停机、意外的网络中断、不时的丢失存储数据等事件,这都是因为PC机的设计制造从来没有保证过多用户多任务环境下的可靠性,而一旦发生严重故障,其所带来的经济损失将是难以预料的。但一台服务器所面对的是整个网络的用户,需要7X24小时不间断工作,所以它必须具有极高的稳定性,另一方面,为了实现高速以满足众多用户的需求,服务器通过采用对称多处理器(SMP)安装、插入大量的高速内存来保证工作。它的主板可以同时安装几个甚至几十、上百个CPU(服务器所用CPU也不是普通的CPU,是厂商专门为服务器开发生产的)。内存方面当然也不一样,无论在内存容量,还是性能、技术等方面都有根本的不同。另外,服务器为了保证足够的安全性,还采用了大量普通电脑没有的技术,如冗余技术、系统备份、在线诊断技术、故障预报警技术、内存纠错技术、热插拔技术和远程诊断技术等等,使绝大多数故障能够在不停机的情况下得到及时的修复,具有极强的可管理性(man ability)。
通常,从所采用的CPU(中央处理器)来看,我们把服务器主要分为两类构架:
一部分是IA(Intel Architecture,Intel架构)架构服务器,又称CISC(Complex Instruction Set Computer复杂指令集)架构服务器,即通常我们所讲的PC服务器,它是基于PC机体系结构,使用Intel或与其兼容的处理器芯片的服务器,如联想的万全系列服务器,HP公司的Netserver系列服务器等。这类以"小、巧、稳"为特点的IA架构服务器凭借可靠的性能、低廉的价格,得到了更为广泛的应用,在互联网和局域网内更多的完成文件服务、打印服务、通讯服务、WEB服务、电子邮件服务、数据库服务、应用服务等主要应用,一般应用在中小公司机构或大企业的分支机构。目前在IA架构的服务器中全部采用Intel(英特尔)公司生产的CPU,从Intel生产CPU的历史来看,可以划分成两大系列:早期的80x86系列及现在的Pentium系列。早期的80x86系列可以包括:8088、8086、80286、80386、80486。自80486之后,Intel对自己的产品进行了重新命名,并进行注册,因此80486以后的产品形成了Pentium(奔腾)系列的CPU。Pentium系列的CPU目前包括:Pentium、Pentium MMX、Pentium Pro、PII、PII Xeon(至强)、PIII、PIII Xeon、P4 Xeon、Celeron2(赛扬)等。
另一部分是比IA服务器性能更高的服务器,即RISC(Reduced Instruction Set Computing精简指令集)架构服务器,这种RISC型号的CPU一般来讲在我们日常使用的电脑中是根本看不到的,它完全采用了与普通CPU不同的结构。使用RISC芯片并且主要采用UNIX *** 作系统的服务器,如Sun公司的SPARC、HP(惠普)公司的PA-RISC、DEC公司的Alpha芯片、SGI公司的MIPS等等。这类服务器通常价格都很昂贵,一般应用在证券、银行、邮电、保险等大公司大企业,作为网络的中枢神经,提供高性能的数据等各种服务。
目前,服务器的市场竞争非常激烈,国外有IBM、HP(惠普)、DELL(戴尔)、SUN等著名厂商,国内有联想、浪潮、曙光等一线厂商都提供不同级别的服务器产品,满足不同的用户的需求。 1按应用层次划分为入门级服务器、工作组级服务器、部门级服务器和企业级服务器四类。
入门级服务器
入门级服务器通常只使用一块CPU,并根据需要配置相应的内存(如256MB)和大容量IDE硬盘,必要时也会采用IDE RAID(一种磁盘阵列技术,主要目的是保证数据的可靠性和可恢复性)进行数据保护。入门级服务器主要是针对基于Windows NT,NetWare等网络 *** 作系统的用户,可以满足办公室型的中小型网络用户的文件共享、打印服务、数据处理、Internet接入及简单数据库应用的需求,也可以在小范围内完成诸如E-mail、 Proxy 、DNS等服务。
工作组级服务器
工作组级服务器一般支持1至2个PⅢ处理器或单颗P4(奔腾4)处理器,可支持大容量的ECC(一种内存技术,多用于服务器内存)内存,功能全面。可管理性强、且易于维护,具备了小型服务器所必备的各种特性,如采用SCSI(一种总线接口技术)总线的I/O(输入/输出)系统,SMP对称多处理器结构、可选装RAID、热插拔硬盘、热插拔电源等,具有高可用性特性。适用于为中小企业提供Web、Mail等服务,也能够用于学校等教育部门的数字校园网、多媒体教室的建设等。
部门级服务器
部门级服务器通常可以支持2至4个PⅢ Xeon(至强)处理器,具有较高的可靠性、可用性、可扩展性和可管理性。首先,集成了大量的监测及管理电路,具有全面的服务器管理能力,可监测如温度、电压、风扇、机箱等状态参数。此外,结合服务器管理软件,可以使管理人员及时了解服务器的工作状况。同时,大多数部门级服务器具有优良的系统扩展性,当用户在业务量迅速增大时能够及时在线升级系统,可保护用户的投资。目前,部门级服务器是企业网络中分散的各基层数据采集单位与最高层数据中心保持顺利连通的必要环节。适合中型企业(如金融、邮电等行业)作为数据中心、Web站点等应用。
企业级服务器
企业级服务器属于高档服务器,普遍可支持4至8个PIII Xeon(至强)或P4 Xeon(至强)处理器,拥有独立的双PCI通道和内存扩展板设计,具有高内存带宽,大容量热插拔硬盘和热插拔电源,具有超强的数据处理能力。这类产品具有高度的容错能力、优异的扩展性能和系统性能、极长的系统连续运行时间,能在很大程度上保护用户的投资。可作为大型企业级网络的数据库服务器。
目前,企业级服务器主要适用于需要处理大量数据、高处理速度和对可靠性要求极高的大型企业和重要行业(如金融、证券、交通、邮电、通信等行业),可用于提供ERP(企业资源配置)、电子商务、OA(办公自动化)等服务。如Dell的PowerEdge 4600服务器,标准配置为24GHz Intel Xeon处理器,最大支持12GB的内存。此外,采用了Server Works GC-HE芯片组,支持2至4路Xeon处理器。集成了RAID控制器并配备了128MB缓存,可以为用户提供0、1、5、10四个级别的RAID,最大可以支持10个热插拔硬盘并提供730GB的磁盘存储空间。
由于是面向企业级应用,所在在可维护性以及冗余性能上有其独到的地方,例如配备了7个PCI-X插槽(其中6个支持热插拔),而且不需任何工具即可对冗余风扇、电源以及PCI-X进行安装和更换。
2按服务器按用途划分为通用型服务器和专用型服务器两类。
通用型服务器
通用型服务器是没有为某种特殊服务专门设计的、可以提供各种服务功能的服务器,当前大多数服务器是通用型服务器。这类服务器因为不是专为某一功能而设计,所以在设计时就要兼顾多方面的应用需要,服务器的结构就相对较为复杂,而且要求性能较高,当然在价格上也就更贵些。
专用型服务器
专用型(或称“功能型”)服务器是专门为某一种或某几种功能专门设计的服务器。在某些方面与通用型服务器不同。如光盘镜像服务器主要是用来存放光盘镜像文件的,在服务器性能上也就需要具有相应的功能与之相适应。光盘镜像服务器需要配备大容量、高速的硬盘以及光盘镜像软件。FTP服务器主要用于在网上(包括Intranet和Internet)进行文件传输,这就要求服务器在硬盘稳定性、存取速度、I/O(输入/输出)带宽方面具有明显优势。而E-mail服务器则主要是要求服务器配置高速宽带上网工具,硬盘容量要大等。这些功能型的服务器的性能要求比较低,因为它只需要满足某些需要的功能应用即可,所以结构比较简单,采用单CPU结构即可;在稳定性、扩展性等方面要求不高,价格也便宜许多,相当于2台左右的高性能计算机价格。HP的一款Web服务器HP access server,它采用的是PIII113Gbit/s左右的CPU,内存标准配置也只有128MB/256MB,与一台性能较好的普通计算机差不多,但在某些方它还是具有PC机无可替代的优势。
4按服务器的机箱结构来划分,可以把服务器划分为“台式服务器”、“机架式服务器”、“机柜式服务器”和“刀片式服务器”四类。
台式服务器
台式服务器也称为“塔式服务器”。有的台式服务器采用大小与普通立式计算机大致相当的机箱,有的采用大容量的机箱,像个硕大的柜子。低档服务器由于功能较弱,整个服务器的内部结构比较简单,所以机箱不大,都采用台式机箱结构。这里所介绍的台式不是平时普通计算机中的台式,立式机箱也属于台式机范围,目前这类服务器在整个服务器市场中占有相当大的份额。
对于信息服务企业(如ISP/ICP/ISV/IDC)而言,选择服务器时首先要考虑服务器的体积、功耗、发热量等物理参数,因为信息服务企业通常使用大型专用机房统一部署和管理大量的服务器资源,机房通常设有严密的保安措施、良好的冷却系统、多重备份的供电系统,其机房的造价相当昂贵。如何在有限的空间内部署更多的服务器直接关系到企业的服务成本,通常选用机械尺寸符合19英寸工业标准的机架式服务器。机架式服务器也有多种规格,例如1U(445cm高)、2U、4U、6U、8U等。通常1U的机架式服务器最节省空间,但性能和可扩展性较差,适合一些业务相对固定的使用领域。4U以上的产品性能较高,可扩展性好,一般支持4个以上的高性能处理器和大量的标准热插拔部件。管理也十分方便,厂商通常提供人相应的管理和监控工具,适合大访问量的关键应用,但体积较大,空间利用率不高。
机柜式服务器
在一些高档企业服务器中由于内部结构复杂,内部设备较多,有的还具有许多不同的设备单元或几个服务器都放在一个机柜中,这种服务器就是机柜式服务器。
刀片式服务器
刀片式服务器是一种HAHD(High Availability High Density,高可用高密度)的低成本服务器平台,是专门为特殊应用行业和高密度计算机环境设计的,其中每一块“刀片”实际上就是一块系统母板,类似于一个个独立的服务器。在这种模式下,每一个母板运行自己的系统,服务于指定的不同用户群,相互之间没有关联。不过可以使用系统软件将这些母板集合成一个服务器集群。在集群模式下,所有的母板可以连接起来提供高速的网络环境,可以共享资源,为相同的用户群服务。当前市场上的刀片式服务器有两大类:一类主要为电信行业设计,接口标准和尺寸规格符合PICMG(PCI Industrial Computer Manufacturer's Group)1x或2x,未来还将推出符合PICMG 3x 的产品,采用相同标准的不同厂商的刀片和机柜在理论上可以互相兼容;另一类为通用计算设计,接口上可能采用了上述标准或厂商标准,但尺寸规格是厂商自定,注重性能价格比,目前属于这一类的产品居多。刀片式服务器目前最适合群集计算和IxP提供互联网服务。
RAID是英文Redundant Array of Independent Disks的缩写,翻译成中文意思是“独立磁盘冗余阵列”,有时也简称磁盘阵列(Disk Array)。
简单的说,RAID是一种把多块独立的硬盘(物理硬盘)按不同的方式组合起来形成一个硬盘组(逻辑硬盘),从而提供比单个硬盘更高的存储性能和提供数据备份技术。组成磁盘阵列的不同方式成为RAID级别(RAID Levels)。数据备份的功能是在用户数据一旦发生损坏后,利用备份信息可以使损坏数据得以恢复,从而保障了用户数据的安全性。在用户看起来,组成的磁盘组就像是一个硬盘,用户可以对它进行分区,格式化等等。总之,对磁盘阵列的 *** 作与单个硬盘一模一样。不同的是,磁盘阵列的存储速度要比单个硬盘高很多,而且可以提供自动数据备份。
RAID技术的两大特点:一是速度、二是安全,由于这两项优点,RAID技术早期被应用于高级服务器中的SCSI接口的硬盘系统中,随着近年计算机技术的发展,PC机的CPU的速度已进入GHz 时代。IDE接口的硬盘也不甘落后,相继推出了ATA66和ATA100硬盘。这就使得RAID技术被应用于中低档甚至个人PC机上成为可能。RAID通常是由在硬盘阵列塔中的RAID控制器或电脑中的RAID卡来实现的。
RAID技术经过不断的发展,现在已拥有了从 RAID 0 到 6 七种基本的RAID 级别。另外,还有一些基本RAID级别的组合形式,如RAID 10(RAID 0与RAID 1的组合),RAID 50(RAID 0与RAID 5的组合)等。不同RAID 级别代表着不同的存储性能、数据安全性和存储成本。但我们最为常用的是下面的几种RAID形式。
(1) RAID 0
RAID 0又称为Stripe(条带化)或Striping,它代表了所有RAID级别中最高的存储性能。RAID 0提高存储性能的原理是把连续的数据分散到多个磁盘上存取,这样,系统有数据请求就可以被多个磁盘并行的执行,每个磁盘执行属于它自己的那部分数据请求。这种数据上的并行 *** 作可以充分利用总线的带宽,显著提高磁盘整体存取性能。
如图所示:系统向三个磁盘组成的逻辑硬盘(RADI 0 磁盘组)发出的I/O数据请求被转化为3项 *** 作,其中的每一项 *** 作都对应于一块物理硬盘。我们从图中可以清楚的看到通过建立RAID 0,原先顺序的数据请求被分散到所有的三块硬盘中同时执行。从理论上讲,三块硬盘的并行 *** 作使同一时间内磁盘读写速度提升了3倍。 但由于总线带宽等多种因素的影响,实际的提升速率肯定会低于理论值,但是,大量数据并行传输与串行传输比较,提速效果显著显然毋庸置疑。
RAID 0的缺点是不提供数据冗余,因此一旦用户数据损坏,损坏的数据将无法得到恢复。
RAID 0具有的特点,使其特别适用于对性能要求较高,而对数据安全不太在乎的领域,如图形工作站等。对于个人用户,RAID 0也是提高硬盘存储性能的绝佳选择。
(2) RAID 1
RAID 1又称为Mirror或Mirroring(镜像),它的宗旨是最大限度的保证用户数据的可用性和可修复性。 RAID 1的 *** 作方式是把用户写入硬盘的数据百分之百地自动复制到另外一个硬盘上。
当读取数据时,系统先从RAID 0的源盘读取数据,如果读取数据成功,则系统不去管备份盘上的数据;如果读取源盘数据失败,则系统自动转而读取备份盘上的数据,不会造成用户工作任务的中断。当然,我们应当及时地更换损坏的硬盘并利用备份数据重新建立Mirror,避免备份盘在发生损坏时,造成不可挽回的数据损失。
由于对存储的数据进行百分之百的备份,在所有RAID级别中,RAID 1提供最高的数据安全保障。同样,由于数据的百分之百备份,备份数据占了总存储空间的一半,因而Mirror(镜像)的磁盘空间利用率低,存储成本高。
Mirror虽不能提高存储性能,但由于其具有的高数据安全性,使其尤其适用于存放重要数据,如服务器和数据库存储等领域
(3) RAID 0+1
正如其名字一样RAID 0+1是RAID 0和RAID 1的组合形式,也称为RAID 10。
以四个磁盘组成的RAID 0+1为例,其数据存储方式如图所示:RAID 0+1是存储性能和数据安全兼顾的方案。它在提供与RAID 1一样的数据安全保障的同时,也提供了与RAID 0近似的存储性能。
由于RAID 0+1也通过数据的100%备份功能提供数据安全保障,因此RAID 0+1的磁盘空间利用率与RAID 1相同,存储成本高。
RAID 0+1的特点使其特别适用于既有大量数据需要存取,同时又对数据安全性要求严格的领域,如银行、金融、商业超市、仓储库房、各种档案管理等
(4) RAID 3
RAID 3是把数据分成多个“块”,按照一定的容错算法,存放在N+1个硬盘上,实际数据占用的有效空间为N个硬盘的空间总和,而第N+1个硬盘上存储的数据是校验容错信息,当这N+1个硬盘中的其中一个硬盘出现故障时,从其它N个硬盘中的数据也可以恢复原始数据,这样,仅使用这N个硬盘也可以带伤继续工作(如采集和回放素材),当更换一个新硬盘后,系统可以重新恢复完整的校验容错信息。由于在一个硬盘阵列中,多于一个硬盘同时出现故障率的几率很小,所以一般情况下,使用RAID3,安全性是可以得到保障的。与RAID0相比,RAID3在读写速度方面相对较慢。使用的容错算法和分块大小决定RAID使用的应用场合,在通常情况下,RAID3比较适合大文件类型且安全性要求较高的应用,如视频编辑、硬盘播出机、大型数据库等
(5) RAID 5
RAID 5 是一种存储性能、数据安全和存储成本兼顾的存储解决方案。 以四个硬盘组成的RAID 5为例,其数据存储方式如图4所示:图中,P0为D0,D1和D2的奇偶校验信息,其它以此类推。由图中可以看出,RAID 5不对存储的数据进行备份,而是把数据和相对应的奇偶校验信息存储到组成RAID5的各个磁盘上,并且奇偶校验信息和相对应的数据分别存储于不同的磁盘上。当RAID5的一个磁盘数据发生损坏后,利用剩下的数据和相应的奇偶校验信息去恢复被损坏的数据。
RAID 5可以理解为是RAID 0和RAID 1的折衷方案。RAID 5可以为系统提供数据安全保障,但保障程度要比Mirror低而磁盘空间利用率要比Mirror高。RAID 5具有和RAID 0相近似的数据读取速度,只是多了一个奇偶校验信息,写入数据的速度比对单个磁盘进行写入 *** 作稍慢。同时由于多个数据对应一个奇偶校验信息,RAID 5的磁盘空间利用率要比RAID 1高,存储成本相对较低
RAID级别的选择有三个主要因素:可用性(数据冗余)、性能和成本。如果不要求可用性,选择RAID0以获得最佳性能。如果可用性和性能是重要的而成本不是一个主要因素,则根据硬盘数量选择RAID 1。如果可用性、成本和性能都同样重要,则根据一般的数据传输和硬盘的数量选择RAID3、RAID5

端口是接口电路中能被CPU直接访问的寄存器。在一个接口电路中一般拥有:命令端口、状态端口、数据端口。

端口的作用是对TCP/IP体系的应用进程进行统一的标志,使运行不同 *** 作系统的计算机的应用进程能够互相通信。

扩展资料

一些常见的端口号及其用途如下:

1、端口:7

服务:Echo

说明:能看到许多人搜索Fraggle放大器时,发送到XXX0和XXX255的信息。

2、端口:19

服务:Character Generator

说明:这是一种仅仅发送字符的服务。UDP版本将会在收到UDP包后回应含有垃圾字符的包。TCP连接时会发送含有垃圾字符的数据流直到连接关闭。HACKER利用IP欺骗可以发动DoS攻击,伪造两个chargen服务器之间的UDP包。

3、端口:21

服务:FTP

说明:FTP服务器所开放的端口,用于上传、下载。最常见的攻击者用于寻找打开anonymous的FTP服务器的方法。这些服务器带有可读写的目录。木马Doly Trojan、Fore、Invisible FTP、WebEx、WinCrash和Blade Runner所开放的端口。

4、端口:22

服务:Ssh

说明:PcAnywhere建立的TCP和这一端口的连接可能是为了寻找ssh。这一服务有许多弱点,如果配置成特定的模式,许多使用RSAREF库的版本就会有不少的漏洞存在。

同步整流技术是采用通态电阻极低的功率MOSFET来取代整流二极管,因此能大大降低整流器的损耗,提高DC/DC变换器的效率,满足低压、大电流整流的需要。首先介绍了同步整流的基本原理,然后重点阐述同步整流式DC/DC电源变换器的设计。 字串5
关键词:同步整流;磁复位;箝位电路;DC/DC变换器
1 同步整流技术概述 字串7
近年来随着电源技术的发展,同步整流技术正在向低电压、大电流输出的DC/DC变换器中迅速推广应用。DC/DC变换器的损耗主要由3部分组成:功率开关管的损耗,高频变压器的损耗,输出端整流管的损耗。在低电压、大电流输出的情况下,整流二极管的导通压降较高,输出端整流管的损耗尤为突出。快恢复二极管(FRD)或超快恢复二极管(SRD)可达10~12V,即使采用低压降的肖特基二极管(SBD),也会产生大约06V的压降,这就导致整流损耗增大,电源效率降低。举例说明,目前笔记本电脑普遍采用33V甚至18V或15V的供电电压,所消耗的电流可达20A。此时超快恢复二极管的整流损耗已接近甚至超过电源输出功率的50%。即使采用肖特基二极管,整流管上的损耗也会达到(18%~40%)PO,占电源总损耗的60%以上。因此,传统的二极管整流电路已无法满足实现低电压、大电流开关电源高效率及小体积的需要,成为制约DC/DC变换器提高效率的瓶颈。
同步整流是采用通态电阻极低的专用功率MOSFET,来取代整流二极管以降低整流损耗的一项新技术。它能大大提高DC/DC变换器的效率并且不存在由肖特基势垒电压而造成的死区电压。功率MOSFET属于电压控制型器件,它在导通时的伏安特性呈线性关系。用功率MOSFET做整流器时,要求栅极电压必须与被整流电压的相位保持同步才能完成整流功能,故称之为同步整流。
为满足高频、大容量同步整流电路的需要,近年来一些专用功率MOSFET不断问世,典型产品有FAIRCHILD公司生产的NDS8410型N沟道功率MOSFET,其通态电阻为0015Ω。Philips公司生产的SI4800型功率MOSFET是采用TrenchMOSTM技术制成的,其通、断状态可用逻辑电平来控制,漏-源极通态电阻仅为00155Ω。IR公司生产的IRL3102(20V/61A)、IRL2203S(30V/116A)、IRL3803S(30V/100A)型功率MOSFET,它们的通态电阻分别为0013Ω、0007Ω和0006Ω,在通过20A电流时的导通压降还不到03V。这些专用功率MOSFET的输入阻抗高,开关时间短,现已成为设计低电压、大电流功率变换器的首选整流器件。
最近,国外IC厂家还开发出同步整流集成电路(SRIC)。例如,IR公司最近推出的IR1176就是一种专门用于驱动N沟道功率MOSFET的高速CMOS控制器。IR1176可不依赖于初级侧拓扑而单独运行,并且不需要增加有源箝位(activeclamp)、栅极驱动补偿等复杂电路。IR1176适用于输出电压在5V以下的大电流DC/DC变换器中的同步整流器,能大大简化并改善宽带网服务器中隔离式DC/DC变换器的设计。IR1176配上IRF7822型功率MOSFET,可提高变换器的效率。当输入电压为+48V,输出为+18V、40A时,DC/DC变换器的效率可达86%,输出为15V时的效率仍可达到85%。2 同步整流的基本原理 字串4
单端正激、隔离式降压同步整流器的基本原理如图1所示,V1及V2为功率MOSFET,在次级电压的正半周,V1导通,V2关断,V1起整流作用;在次级电压的负半周,V1关断,V2导通,V2起到续流作用。同步整流电路的功率损耗主要包括V1及V2的导通损耗及栅极驱动损耗。当开关频率低于1MHz时,导通损耗占主导地位;开关频率高于1MHz时,以栅极驱动损耗为主。
21 磁复位电路的设计 字串6
正激式DC/DC变换器的缺点是在功率管截止期间必须将高频变压器复位,以防止变压器磁芯饱和,因此,一般需要增加磁复位电路(亦称变压器复位电路)。图2示出单端降压式同步整流器常用的3种磁复位电路:辅助绕组复位电路,R,C,VDZ箝位电路,有源箝位电路。3种磁复位的方法各有优缺点:辅助绕组复位法会使变压器结构复杂化;R,C,VDZ箝位法属于无源箝位,其优点是磁复位电路简单,能吸收由高频变压器漏感而产生的尖峰电压,但箝位电路本身也要消耗磁场能量;有源箝位法在上述3种方法中的效率最高,但提高了电路的成本。 字串3
磁复位要求漏极电压要高于输入电压,但要避免在磁复位过程中使DPA-Switch的漏极电压超过规定值,为此,可在次级整流管两端并联一个RS、CS网络,电路如图3所示。该电路可使高频变压器在每个开关周期后的能量迅速恢复到一个安全值,保证UD>UI。当DPA-Switch关断时,磁感应电流就通过变压器的次级绕组流出,利用电容CS使磁感应电流减至零。CS的电容量必须足够小,才能在最短的关断时间内将磁感应电流衰减到零;但CS的电容量也不能太小,以免漏极电压超过稳压管的箝位电压。电阻RS的电阻值应在1~5Ω之间,电阻值过小会与内部寄生电感形成自激振荡。上述磁复位电路适用于40W以下的开关电源。
22 磁复位电路的校验 字串7
当输入电压为最小值或最大值时,要求磁复位电路都能按可控制的范围将高频变压器准确地复位。检查磁复位情况的最好办法是观察DPA-Switch的漏极电压波形。以图3所示的磁复位电路为例,当输入电压依次为72V、48V和36V时,用示波器观察到3种磁复位波形分别如图4所示。 字串2
图4(a)给出了当输入电压为72V时的漏极电压波形。在输出整流管上并联22nF的复位电容,可满足满载情况下的需要。初级绕组上的箝位电容取47pF。图中的T表示开关周期,D为占空比,tON=DT为DPA-Switch的导通时间。在tON时间段,高频变压器的正向磁通量增大,漏极电压达到最小值。在tRZ时间段高频变压器被复位,储存在高频变压器中的全部能量接近于零,漏极电压达到最大值。在tRN时间段,高频变压器的负向磁通量增大,此时复位电容和箝位电容向变压器电感放电。在tVO时间段内磁通量保持为负值,此时高频变压器初级绕组的电压为零,这是因为漏极电压与输入电压大小相等(都是72V)而极性相反,互相抵消了。在tVO时间段,负向磁感应电流通过次级绕组。 字串5
图4(b)给出了当直流输入电压为48V时的漏极电压波形。随着输入电压的降低,占空比开始增大。在tRZ及tRN时间段内的情况与输入电压为72V时的情况相同,但在tVO时间段高频变压器中的能量接近于零。图4(c)给出了当输入电压为36V时占空比进一步增大的情况。由于漏极电压在tRZ阶段达到峰值,所以高频变压器的磁通量已复位到零。当DPA-Switch开启时它的漏极电压在负向磁通区域内。在正常工作情况下漏极电压的峰值应低于150V。这个漏极峰值电压是由漏感和电感复位时所提供的。 字串8
23 箝位电路 字串7
当功率MOSFET由导通变成截止时,在开关电源的一次绕组上就会产生尖峰电压和感应电压。其中的尖峰电压是由高频变压器漏感(即漏磁产生的自感)而形成的,它与直流高压UI和感应电压UOR叠加后很容易损坏MOSFET。为此,必须增加箝位保护电路,对尖峰电压进行箝位或吸收。箝位电路分无源箝位、有源箝位两种。无源箝位电路主要有以下4种设计方案: 字串6
1)利用瞬态电压抑制器(TVS)和超快恢复二极管(SRD)组成的箝位电路;
字串3
2)利用阻容元件和超快恢复二极管组成的R、C、SRD箝位电路;
字串4
3)由阻容元件构成RC吸收电路; 字串2
4)由几只高压稳压管串联而成的箝位电路,专门对漏-源电压uDS进行箝位。 字串6
上述方案中以1)的保护效果最佳,能充分发挥TVS响应速度极快、可承受瞬态高能量脉冲之优点,方案2)次之。鉴于压敏电阻器(VSR)的标称击穿电压值(U1mA)离散性较大,响应速度也比TVS慢很多,在开关电源中一般不用它构成漏极箝位保护电路。
字串9
有源箝位DC/DC变换器的电路如图5所示。因电路中使用了有源器件MOSFET(V4)做箝位管,故称之为有源箝位电路。CC为箝位电容,V3为主功率开关管。由图5可知,当V4导通时因uGS3=0而使V3关断。当V4关断时uGS3使V3导通,就对由变压器漏感产生的尖峰电压起到了箝位作用。
3 165W同步整流式DC/DC电源变换器的设计 字串4
下面介绍一种正激、隔离式165WDC/DC电源变换器,它采用DPA-Switch系列单片开关式稳压器DPA424R,直流输入电压范围是36~75V,输出电压为33V,输出电流为5A,输出功率为165W。采用400kHz同步整流技术,大大降低了整流器的损耗。当直流输入电压为48V时,电源效率η=87%。变换器具有完善的保护功能,包括过电压/欠电压保护,输出过载保护,开环故障检测,过热保护,自动重启动功能、能限制峰值电流和峰值电压以避免输出过冲。 字串3
由DPA424R构成的165W同步整流式DC/DC电源变换器的电路如图6所示。与分立元器件构成的电源变换器相比,可大大简化电路设计。由C1、L1和C2构成输入端的电磁干扰(EMI)滤波器,可滤除由电网引入的电磁干扰。R1用来设定欠电压值(UUV)及过电压值(UOV),取R1=619kΩ时,UUV=619kΩ×50μA+235V=333V,UOV=619kΩ×135μA+25V=860V。当输入电压过高时R1还能线性地减小最大占空比,防止磁饱和。R3为极限电流设定电阻,取R3=111kΩ时,所设定的漏极极限电流I′LIMIT=06ILIMIT=06×250A=15A。电路中的稳压管VDZ1(SMBJ150)对漏极电压起箝位作用,能确保高频变压器磁复位。
该电源采用漏-源通态电阻极低的SI4800型功率MOSFET做整流管,其最大漏-源电压UDS(max)=30V,最大栅-源电压UGS(max)=±20V,最大漏极电流为9A(25℃)或7A(70℃),峰值漏极电流可达40A,最大功耗为25W(25℃)或16W(70℃)。SI4800的导通时间tON=13ns(包含导通延迟时间td(ON)=6ns,上升时间tR=7ns),关断时间tOFF=34ns(包含关断延迟时间td(OFF)=23ns,下降时间tF=11ns),跨导gFS=19S。工作温度范围是-55~+150℃。SI4800内部有一只续流二极管VD,反极性地并联在漏-源极之间(负极接D,正极接S),能对MOSFET功率管起到保护作用。VD的反向恢复时间trr=25ns。 字串5
功率MOSFET与双极型晶体管不同,它的栅极电容CGS较大,在导通之前首先要对CGS进行充电,仅当CGS上的电压超过栅-源开启电压〔UGS(th)〕时,MOSFET才开始导通。对SI4800而言,UGS(th)≥08V。为了保证MOSFET导通,用来对CGS充电的UGS要比额定值高一些,而且等效栅极电容也比CGS高出许多倍。 字串2
SI4800的栅-源电压(UGS)与总栅极电荷(QG)的关系曲线如图7所示。由图7可知 字串1
QG=QGS+QGD+QOD (1)
字串4
式中:QGS为栅-源极电荷; 字串2
QGD为栅-漏极电荷,亦称米勒(Miller)电容上的电荷; 字串3
QOD为米勒电容充满后的过充电荷。 字串8
当UGS=5V时,QGS=27nC,QGD=5nC,QOD=41nC,代入式(1)中不难算出,总栅极电荷QG=118nC。 字串8
等效栅极电容CEI等于总栅极电荷除以栅-源电压,即
字串7
CEI=QG/UGS (2)
字串5
将QG=118nC及UGS=5V代入式(2)中,可计算出等效栅极电容CEI=236nF。需要指出,等效栅极电容远大于实际的栅极电容(即CEI CGS),因此,应按CEI来计算在规定时间内导通所需要的栅极峰值驱动电流IG(PK)。IG(PK)等于总栅极电荷除以导通时间,即
字串8
IG=QG/tON (3)
字串2
将QG=118nC,tON=13ns代入式(3)中,可计算出导通时所需的IG(PK)=091A。
字串7
同步整流管V2由次级电压来驱动,R2为V2的栅极负载。同步续流管V1直接由高频变压器的复位电压来驱动,并且仅在V2截止时V1才工作。当肖特基二极管VD2截止时,有一部分能量存储在共模扼流圈L2上。当高频变压器完成复位时,VD2续流导通,L2中的电能就通过VD2继续给负载供电,维持输出电压不变。辅助绕组的输出经过VD1和C4整流滤波后,给光耦合器中的接收管提供偏置电压。C5为控制端的旁路电容。上电启动和自动重启动的时间由C6决定。 字串6
输出电压经过R10和R11分压后,与可调式精密并联稳压器LM431中的250V基准电压进行比较,产生误差电压,再通过光耦合器PC357去控制DPA424R的占空比,对输出电压进行调节。R7、VD3和C3构成软启动电路,可避免在刚接通电源时输出电压发生过冲现象。刚上电时,由于C3两端的电压不能突变,使得LM431不工作。随着整流滤波器输出电压的升高并通过R7给C3充电,C3上的电压不断升高,LM431才转入正常工作状态。在软启动过程中,输出电压是缓慢升高的,最终达到33V的稳定值。 字串2
4 结语 字串3
在设计低电压、大电流输出的DC/DC变换器时,采用同步整流技术能显著提高电源效率。在驱动较大功率的同步整流器时,要求栅极峰值驱动电流IG(PK)≥1A时,还可采用CMOS高速功率MOSFET驱动器,例如Microchip公司开发的TC4426A~TC4428A。
字串8 为了您的安全,请只打开来源可靠的网址 打开网站 取消来自: >在谈到服务器之前,我们有必要先了解一下什么是计算机网络。从组成结构来讲,计算机网络就是通过外围的设备和连线,将分布在相同或不同地域的多台计算机连接在一起所形成的集合。从应用的角度讲,只要将具有独立功能的多台计算机连接在一起,能够实现各计算机间信息的互相交换,并可共享计算机资源的系统便可称为网络。随着人们在半导体技术(主要包括大规模集成电路LSI和超大规模集成电路VLSI技术)上不断取得更新更高的成就,计算机网络迅速地涉及到计算机和通信两个领域。一方面通过网络为计算机之间数据的传输和交换提供了必要的手段,另一方面数字信号技术的发展已渗透到通信技术中,又提高了通信网络的各项性能。计算机网络从诞生至今,一共经历了四个阶段的发展过程。
第一代计算机网络大约产生于1954年,当时它只是一种面向终端(用户端不具备数据的存储和处理能力)的计算机网络。 1946年,世界上第一台计算机(ENIAC)问世。此后的几年中,计算机与计算机之间还没有建立相互间的联系。当时,电子计算机因价格和数量等诸多因素的制约,很少有人会想到在计算机之间进行通信。1954年,随着一种叫做收发器(Transceiver)的终端研制成功,人们实现了将穿孔卡片上的数据通过电话线路发送到远地的计算机上的梦想。以后,电传打字机也作为远程终端和计算机实现了相连。
第二代计算机网络出现在1969年。刚才我们已经谈到了,早期的第一代计算机网络是面向终端的,是一种以单个主机为中心的星型网络,各终端通过通信线路共享主机的硬件和软件资源。而第二代计算机网络则强调了网络的整体性,用户不仅可以共享主机的资源,而且还可以共享其他用户的软、硬件资源。第二代计算机网络的工作方式一直延续到了现在。如今的计算机网络尤其是中小型局域网很注重和强调其整体性,以扩大系统资源的共享范围。
第三代计算机网络出现在70年代。从所周知,早期计算机之间的组网是有条件的,在同一网络中只能存在同一厂家生产的计算机,其他厂家生产的计算机无法接入。这种现象的出现,一方面与当时的环境有关,因为当时的计算机还远远没有现在这样普及,一个大单位能够用上一台计算机就算不错了,更谈不上实现计算机之间的互联;另一方面与未建立相关的标准有关,当时的计算机网络只是部分高等学府或笠研机构针对自己的工作特点所建立的,还未能在大范围内(如不同的单位之间)进行连接,并且也缺乏一个统一的标准。针对这种情况,第三代计算机网络开始实现将不同厂家生产的计算机互联成网。1977年前后,国际标准化组织成立了一个专门机构,提出了一个各种计算机能够在世界范围内互联成网的标准框架,即著名的开放系统互联基本参考模型OSI/RM。简称为OSI。OSI模型的提出,为计算机网络技术的发展开创了一个新纪元。现在的计算机网络便是以OSI为标准进行工作的。
第四代计算机网络是在进入20世纪90年代后,随着数字通信的出现而产生的,其特点是综合化和高速化。综合化是指采用交换的数据传送方式将多种业务综合到一个网络中完成。例如人们一直在用一种与计算机网络很不相同的电话网传送语音住处但是,现在已经可以将多种业务,如语音、数据、图像等住处以二进制代码的数字形式综合到一个网络中来传送。
诸位不要以为笔者写走题儿了,介绍计算机网络的组成不过是为了把何谓服务器讲得更浅显些做个铺垫,因为四代计算机网络都是由服务器、工作站、外围设备和通信协议组成。而本文要向读者诸君介绍的服务器(Server)也正是整个网络系统的核心,它的存在就是为网络用户提供服务并管理整个网络的设备。服务器从外型来看,和普通的PC并没有什么两样,但其内部结构却与普通的个人PC机有着本质的不同。
如主板结构。服务器的主板从整个板型看,规格上比普通的ATX等类型主板都要大一些,但是仍然符合ATX标准。主要是由于特殊部件比较多,所以在布局方面和普通主板不尽相同。由于服务器主板对稳定性的要求非常高,因此在电气结构上,服务器主板比普通PC主板要求技高一筹,从电流输入开始,服务器主板便大多采用了双电源设计,以防止意外发生。服务器主板的电源接口大都远离重要部件如CPU插槽和内存插槽。输出电路种大量采用了滤波电容和线圈,使得输出的电流尽量干净。而一般主板在电源接口上就没有这么讲究。电源接口和CPU插槽非常近,从电源接口的输入电流和对CPU供电电流进 行稳压和滤波的电容和线圈位置非常近,很难避免互相干扰。由于服务器数据处理量很大,所以大都采用多CPU并行处理结构,主板上有偶数个CPU插槽。值得一提的是,在服务器主板上,CPU插槽边上大都有很多电解电容,是做滤电流杂波用的。理想的滤波应该是多个不很大电容来进行,这样既可以保证杂波被过滤 掉,又不会降低电流。服务器的最大特点是数据总线和地址总线上的负载比较大,I/O流量也比 较服务器主板一般都有多个超级I/O芯片,分别控制不同设备,以及多个总线驱动芯片增强负载能力,提高信号质量。为了减缓I/O瓶颈压力,一般应用SCSI接口磁盘系统。另外,由于服务器对于图形和声音要求都不算太高,所以很多服务器主板上都集成了声卡和显示卡。但是为了进一步减少CPU占用率并提高稳定性能,在硬声卡和显卡方面大多采用ATI公司的显示芯片和新加坡CREATIVE(创新)公司的声卡芯片。与此同时,在服务器主板上还经常集成有网卡芯片(如INTEL公司的82559)和RAID卡槽等。
如性能指标。服务器的性能指标是以系统响应速度和作业吞吐量为代表的。响应速度是指用户从输入信息到服务器完成任务给出响应的时间。作业吞吐量是整个服务器在单位时间内完成的任务量。假定用户不间断地输入请求,则在系统资源充裕的情况下,单个用户的吞吐量与响应时间成反比,即响应时间越短,吞吐量越大。为了缩短某一用户或服务的响应时间,可以分配给它更多的资源。性能调整就是根据应用要求和服务器具体运行环境和状态,改变各个用户和服务程序所分配的系统资源,充分发挥系统能力,用尽量少的资源满足用户要求,达到为更多用户服务的目的。
如扩展性能。服务器的可扩展性能与普通个人PC的升级有着本质的不同,其具体表现在两个方面:一是留有富余的机箱可用空间,二是充裕的I/O带宽。随着处理器运算速度的提高和并行处理器数量的增加,服务器性能的瓶颈将会归结为PCI及其附属设备。高扩展性意义在于用户可以根据需要随时增加有关部件,在满足系统运行要求的同时,又保护投资。
如可用性。服务器的可用性是以设备处于正常运行状态的时间比例作为衡量指标,例如999%的可用性表示每年有8小时的时间设备不能正常运行,99999%的可用性表示每年有5分钟的时间设备不能正常运行。部件冗余是提高可用性的基本方法,通常是对发生故障给系统造成危害最大的那些部件(例如电源、硬盘、风扇和PCI卡)添加冗余配置,并设计方便的更换机构(如热插拔),从而保证这些设备即使发生故障也不会影响系统的正常运行,而且要使系统能及时恢复到正常的部件冗余程度。
如可管理性。可管理性旨在利用特定的技术和产品来提高系统的可靠性,降低系统的购买、使用、部署和支持费用,最显著的作用体现在减少维护人员的工时占用和避免系统停机带来的损失。服务器的管理性能直接影响服务器的易用性。可管理性是TCO各种费用之中所占比例最大的一项。有研究表明,系统的部署和支持费用远远超过了初次购买所花的费用,而付给管理和支持人员的报酬又是其中所占份额最高的。另外,工作效率的降低、商业机会的丧失和营业收入的下滑所带来的财务损失也不可忽视。因此,系统的可管理性既是IT部门的迫切要求,又对企业经营效益起着非常关键的作用。可管理性产品和工具可通过提供系统内部的有关信息而达到简化系统管理的目的。通过网络实现远程管理,技术支持人员在自己的桌面上即可解决问题,不必亲赴故障现场。系统部件可自动监视自己的工作状态,如果发现故障隐患可随时发出警告,提醒维护人员立即采取措施保护企业数据资产,故障部件更换的 *** 作也非常简单方便。
由上所述,网络时代为服务器的应用提供了越来越广阔的空间,在网络技术和应用快速发展的今天,作为网络核心的服务器其重要性日益突出,服务器也由此进入了技术、应用和市场互动并迅速发展的新阶段。Unix *** 作系统由于其功能强大、技术成熟、可靠性好、网络及数据库功能强等特点,在计算机技术特别是 *** 作系统技术的发展中具有重要的不可替代的地位和作用。尽管Unix系统受到了NT的严峻挑战,但它仍是目前唯一能在各个硬件平台上稳定运行的 *** 作系统,并且在技术成熟程度以及稳定性和可靠性等方面仍然领先于NT。但在WINDOWS的不断追击下,Unix系统转向IA-64体系也是大势所趋,这里我们不妨来进一步看一下其经历的历程。
1994年,HP和Intel公司联合开发基于IA-64的Merced芯片。
1997年12月,Sun宣布将其基于Unix的 *** 作系统Solaris向IA-64体系移植。
1998年1月,Compaq/Digital公司宣布与Sequent合作,将Digital Unix *** 作系统和Sequent的产品集成,向IA-64转移。
1998年4月,SGI宣布将其主流产品向IA-64转移。
1999年1月,IBM宣布开发支持下一代IA-64架构的Unix *** 作系统,将SCO的UnixWare以及Sequent的高端PTX *** 作系统纳入自己的AIX环境,形成一个专门针对IA-64或Merced的Unix,同年,IBM收购Sequent。
因此,Unix系统转向IA-64体系已成为业界的大趋势,最重要的是,诸多Unix厂商对它的支持将打破以往Unix和Wintel两大阵营的对立,将Unix所具备的开放性发挥到顶峰,真正实现应用系统的跨平台使用,为用户提供最大的灵活性。
与IA-32位处理器相比,IA-64位处理器除增加数据宽度外,还结合CISC和RISC技术,采用显式并行指令计算(EPIC)技术,通过专用并行指令编译器尽可能将原代码编译解析为可并行 *** 作的“并行机器码”,完全兼容IA-32应用,保证了用户的可持续使用性。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zz/12947052.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-29
下一篇 2023-05-29

发表评论

登录后才能评论

评论列表(0条)

保存