当前新的数据中心网络拓扑主要分为两类
1、以交换机为核心,网络连接和路由功能由交换机完成,各个设备厂商的“羹汤”全属于这个领域
2、以服务器为核心,主要互联和路由功能放在服务器上,交换机只提供简单纵横制交换功能
第一类方案中包含了能引发我回忆阴影的Fat-Tree,和VL2、Helios、c-Through、OSA等等,这些方案要么采用更多数量交换机,要么融合光交换机进行网络互联,对交换机软件和硬件要求比较高,第二类主要有DCell、Bcube、FiConn、CamCube、MDCube等等,主要推动者是微软,这类方案中服务器一版会通过多网卡接入网络,为了支持各种流量模型,会对服务器进行硬件和软件的升级。
除了这些网络拓扑的变化外,其实对数据中心网络传输协议TCP/IP、网络虚拟化、网络节能机制、DCI网络互联都有很多创新的技术和概念涌现出来。
FatTree 胖树,2008年由UCSD大学发表的论文,同时也是5年前工作中接触的第一种交换机为中心的网络拓扑,当时没有太理解,跟客户为这事掐的火星四溅,再来一次可能结论会有所改变,同时也是这篇论文引发了学术界对数据中心内部网络拓扑设计的广泛而深刻的讨论,他提出了一套组网设计原则来达成几个目的
1、全网采用低端商用交换机来组网、其实就是采用1U的接入交换机,取消框式设备
2、全网无阻塞
3、成本节省,纸面测算的话FatTree 可以降为常规模式组网成本的1/4或1/5
物理拓扑(按照4个pod设计)
FatTree 的设计原则如下
整个网络包含K个POD,每个POD有K/2个Edge和K/2个Agg 交换机,他们各有K的接口,Edge使用K/2个端口下联服务器,Agg适用K/2个端口上联CORE交换机
Edge使用K/2个端口连接服务器,每个服务器占用一个交换端口
CORE层由K/2K/2共计KK/4个K个端口交换机组成,分为K/2组,每组由K/2ge,第一组K/2台CORE交换机连接各个POD中Agg交换层一号交换机,第二组K/2的CORE交换机连接各POD中Agg的二号交换机,依次类推
K个POD,每个POD有K/2个Edge交换机,每个Edge有K/2端口,服务器总数为KK/2K/2=KKK/4
K取值4的话,服务器总数为16台
常规K取值48的话,服务器为27648台
FatTree的路由设计更加有意思,论文中叫两阶段路由算法,首先要说明的是如果使用论文中的算法是需要对交换机硬软件进行修改的,这种两阶段路由算法和交换设备及服务器的IP地址强相关,首先就是IP地址的编制,这里依然按照K=4来设计,规则如下
1、POD中交换机IP为10podswitch1,pod对应POD编号,switch为交换机所在POD编号(Edge从0开始由左至右到k/2-1,Agg从k/2至k-1)
2、CORE交换机IP为10kji ,k为POD数量,j为交换机在Core层所属组编号,i为交换机在该组中序号
3、服务器IP为10podswitchID,ID为服务器所在Edge交换机序号,交换机已经占用1,所以从2开始由左至右到k/2+1
设计完成后交换机和服务器的IP地址会如下分配
对于Edge交换机(以10201为例)第一阶段匹配10202和10203的32位地址,匹配则转发,没有匹配(既匹配0000/0)则根据目的地址后8位,也就是ID号,选择对应到Agg的链路,如目标地址为xxx2则选择到10221的链路,目标地址为xxx3则选择到10231的链路
对于Agg交换机(以10221为例)第一阶段匹配本POD中网段10200/24和10210/24,匹配成功直接转发对应Edge,没有匹配(既匹配0000/0)则根据目的地址后8位,也就是ID号确定对应到Core的链路,如目标地址为xxx2则选择到10411的链路,目标地址为xxx3则选择到10412的链路
对于Core交换机,只有一个阶段匹配,只要根据可能的POD网段进行即可,这里是10000/16~10300/16对应0、1、2、3四个口进行转发
容错方面论文提到了BFD来防止链路和节点故障,同时还有流量分类和调度的策略,这里就不展开了,因为这种两阶段路由算法要对交换机硬件进行修改,适应对IP后8位ID进行匹配,现实中没有看到实际案例,但是我们可以设想一下这种简单的转发规则再加上固定端口的低端交换机,对于转发效率以及成本的压缩将是极为可观的。尤其这种IP地址规则的设计配合路由转发,思路简直清奇。但是仔细想想,这种按照特定规则的IP编制,把每个二层限制在同一个Edge交换机下,注定了虚拟机是没有办法跨Edge来迁移的,只从这点上来看注定它只能存在于论文之中,但是顺着这个思路开个脑洞,还有什么能够编制呢?就是MAC地址,如果再配上集中式控制那就更好了,于是就有了一种新的一种路由方式PortLand,后续我们单独说。
如此看来FatTree 是典型的Scale-out模式,但是由于一般交换机端口通常为48口,如果继续增加端口数量,会导致成本的非线性增加,底层Edge交换机故障时,难以保障服务质量,还有这种拓扑在大数据的mapreduce模型中无法支持one-to-all和all-to-all模式。
把脑洞开的稍微小一些,我们能否用通用商业交换机+通用路由来做出来一种FatTree变种拓扑,来达到成本节省的目的呢,答案一定是确切的,目前能看到阿里已经使用固定48口交换机搭建自己的变种FatTree拓扑了。
以交换机为中心的网络拓扑如VL2、Helios不再多说,目前看到最好的就是我们熟知的spine-leaf结构,它没有设计成1:1收敛比,而且如果使用super层的clos架构,也可以支撑几万台或者百万台的服务器规模,但是FaTtree依靠网络拓扑取消掉了框式核心交换机,在一定规模的数据中心对于压低成本是非常有效的
聊完交换机为核心的拓扑设计后,再来看看服务器为核心的拓扑,同样这些DCell、Bcube、FiConn、CamCube、MDCube等,不会全讲,会拿DCell来举例子,因为它也是2008年由微软亚洲研究院主导,几乎和FatTree同时提出,开创了一个全新的思路,随后的年份里直到今天一直有各种改进版本的拓扑出现
这种服务器为核心的拓扑,主导思想是在服务器上增加网卡,服务器上要有路由转发逻辑来中转流量数据包,并且采用递推方式进行组网。
DCell的基本单元是DCell0,DCell0中服务器互联由一台T个端口的mini交换机完成,跨DCell的流量要通过服务器网卡互联进行绕转。通过一定数量的Dcell0组成一个DCell1,按照一定约束条件进行递推,组成DCell2以及DCellk
上图例中是一个DCell1的拓扑,包含5个Dcell0,每台服务器2个端口,除连接自己区域的mini交换机外,另一个端口会依次连接其他DCell0中的服务器,来组成全互联的结构,最终有20台服务器组成DCell1,所有服务器按照(m,n)坐标进行唯一标识,m相同的时候直接通过moni交换机交互,当m不同时经由mini交换机中继到互联服务器,例子中红色线为40服务器访问13服务器的访问路径。
DCell组网规则及递归约束条件如下:
DCellk中包含DCellk-1的数量为GK
DCellk中包含服务器为Tk个,每台服务器k+1块网卡,则有
GK=Tk-1+1
TK=Gk-1 ✕ Tk-1
设DCell0中有4台服务器
DCell1 中有5个DCell0 (G1=5)
Tk1=20台服务器(T1=20)
DCell2 中有21个DCell1 (G2=21)
Tk2=420台服务器(T2=420)
DCell3 中有421个DCell2 (G3=421)
Tk3=176820台服务器(T3=176820)
…
Tk6=3260000台服务器
经过测算DCell3中每台服务器的网卡数量为4,就能组建出包含17万台服务器的数据中心,同样DCell的缺点和优点一样耀眼,这种递归后指数增长的网卡需求量,在每台服务器上可能并不多,但是全量计算的话就太过于惊人了,虽然对比FatTree又再一次降低交换机的采购成本,但是天量的网卡可以想象对于运维的压力,还有关键的问题时高层次DCell间通信占用低层次DCell网卡带宽必然导致低层次DCell经常拥塞。最后还有一个实施的问题,天量的不同位置网卡布线对于施工的准确度以及未知的长度都是一个巨大的挑战。
DCell提出后,随后针对网卡数量、带宽抢占等一系列问题演化出来一批新的网络拓扑,思路无外乎两个方向,一个是增加交换机数量减少单服务网卡数量,趋同于spine-leaf体系,但是它一直保持了服务器多网卡的思路。另一种是极端一些,干脆消灭所有交换机,但是固定单服务器网卡数量,按照矩阵形式组建纯服务器互联结构,感兴趣的同学可以继续探索。
数据中心的路由框架涵盖范围和领域非常多,很多论文都选择其中的一个点进行讨论,比如源地址路由、流量调度、收敛、组播等等,不计划每个展开,也没有太大意义。但是针对之前FatTree的两阶段路由有一个更新的路由框架设计PortLand,它解决了两段路由中虚拟机无法迁移的问题,它的关键技术有以下几点
1、对于FatTree这种高度规范化的拓扑,PortLand设计为采用层次化MAC编址来支持大二层,这种路由框架中,除了虚拟机/物理机实际的MAC外(AMAC),还都拥有一个PortLand规范的伪MAC(PMAC),网络中的转发机制和PMAC强相关,PMAC的编址规则为
podpositionportvmid
pod (2字节) 代表虚拟机/服务器所在POD号,position(1字节)虚拟机/服务器所在Edge交换机在POD中编号,port(1字节)虚拟机/服务器连接Edge交换机端口的本地编号,vmid(2字节)服务器在Edge下挂以太网交换机编号,如果只有一台物理机vmid只能为1
2、虚拟机/服务器的编址搞定后,Edge、Aggregate、Core的编址呢,于是PortLand设计了一套拓扑发现机制LDP(location discovery protocol),要求交换机在各个端口上发送LDP报文LDM(location
discovery message)识别自己所处位置,LDM消息包含switch_id(交换机自身mac,与PMAC无关)pod(交换机所属pod号)pos(交换机在pod中的编号)level(Edge为0、Agg为1、Core为2)dir(上联为1,下联为-1),最开始的时候Edge角色会发现连接服务器的端口是没有LDM的,它就知道自己是Edge,Agg和Core角色依次收到LDM后会计算并确定出自己的leve和dir等信息。
3、设计一个fabric manager的集中PortLand控制器,它负责回答Edge交换机pod号和ARP解析,当Edge交换机学习到一个AMAC时,会计算一个PMAC,并把IP/AMAC/PMAC对应关系发送给fabric manager,后续有虚拟机/服务器请求此IP的ARP时,会回复PMAC地址给它,并使用这个PMAC进行通信。
4、由于PMAC的编址和pod、pos、level等信息关联,而所有交换机在LDM的交互过程中知晓了全网的交换机pod、pos、level、dir等信息,当数据包在网络中传播的时候,途径交换机根据PMAC进行解析可得到pod、pos这些信息,根据这些信息即可进行数据包的转发,数据包到达Edge后,Edge交换机会把PMAC改写为AMAC,因为它是知道其对应关系的。当虚拟机迁移后,由fabric manager来进行AMAC和PMAC对应更新和通知Edge交换机即可,论文中依靠虚拟机的免费ARP来触发,这点在实际情况中执行的效率要打一个问号。
不可否认,PortLand的一些设计思路非常巧妙,这种MAC地址重写非常有特色。规则设计中把更多的含义赋给PMAC,并且通过LDP机制设计为全网根据PMAC即可进行转发,再加上集中的控制平面fabric manager,已经及其类似我们熟悉的SDN。但是它对于转发芯片的要求可以看出要求比较低,但是所有的转发规则会改变,这需要业内对于芯片和软件的全部修改,是否能够成功也看市场驱动力吧,毕竟市场不全是技术驱动的。
除了我们熟悉的拓扑和路由框架方面,数据中心还有很多比较有意思的趋势在发生,挑几个有意思的
目前数据中心都是以太网有线网络,大量的高突发和高负载各个路由设架构都会涉及,但是如果使用无线是不是也能解决呢,于是极高频技术在数据中心也有了一定的研究(这里特指60GHZ无线),其吞吐可达4Gbps,通过特殊物理环境、波束成形、有向天线等技术使60GHZ部署在数据中心中,目前研究法相集中在无线调度和覆盖中,技术方案为Flyways,它通过合理的机柜摆放及无线节点空间排布来形成有效的整体系统,使用定向天线和波束成形技术提高连接速率等等新的技术,甚至还有一些论文提出了全无线数据中心,这样对数据中心的建设费用降低是非常有助力的。
数据中心目前应用的还是TCP,而TCP在特定场景下一定会遇到性能急剧下降的TCP incast现象,TCP的拥塞避免和慢启动会造成当一条链路拥塞时其承载的多个TCP流可能会同时触发TCP慢启动,但随着所有的TCP流流量增加后又会迅速达到拥塞而再次触发,造成网络中有时间流量很大,有时间流量又很小。如何来解决
数据中心还有很多应用有典型的组通信模式,比如分布式存储、软件升级等等,这种情况下组播是不是可以应用进来,但是组播在数据中心会不会水土不服,如何解决
还有就是数据中心的多路径,可否从TCP层面进行解决,让一条TCP流负载在不同的链路上,而不是在设备上依靠哈希五元组来对每一条流进行特定链路分配
对于TCPincast,一般通过减少RTO值使之匹配RTT,用随机的超时时间来重启动TCP传输。还有一种时设计新的控制算法来避免,甚至有方案抛弃TCP使用UDP来进行数据传输。
对于组播,数据中心的组播主要有将应用映射为网络层组播和单播的MCMD和Bloom Filter这种解决组播可扩展性的方案
对于多路径,提出多径TCP(MPTCP),在源端将数据拆分成诺干部分,并在同一对源和目的之间建立多个TCP连接进行传输,MPTCP对比传统TCP区别主要有
1、MPTCP建立阶段,要求服务器端向客户端返回服务器所有的地址信息
2、不同自流的源/目的可以相同,也可以不同,各个子流维护各自的序列号和滑动窗口,多个子流到达目的后,由接收端进行组装
3、MPTCP采用AIMD机制维护拥塞窗口,但各个子流的拥塞窗口增加与所有子流拥塞窗口的总和相关
还有部分针对TCP的优化,如D3协议,D3是针对数据中心的实时应用,通过分析数据流的大小和完成时间来分配传输速率,并且在网络资源紧张的时候可以主动断开某些预计无法完成传输的数据流,从而保证更多的数据流能按时完成。
这的数据中心节能不会谈风火水电以及液冷等等技术,从网络拓扑的角度谈起,我们所有数据中心拓扑搭建的过程中,主要针对传统树形拓扑提出了很多“富连接”的拓扑,来保证峰值的时候网络流量的保持性,但是同时也带来了不在峰值条件下能耗的增加,同时我们也知道数据中心流量多数情况下远低于其峰值设计,学术界针对这块设计了不少有脑洞的技术,主要分为两类,一类时降低硬件设备能耗,第二类时设计新型路由机制来降低能耗。
硬件能耗的降低主要从设备休眠和速率调整两个方面来实现,其难点主要时定时机制及唤醒速度的问题,当遇到突发流量交换机能否快速唤醒,人们通过缓存和定时器组合的方式进行。
节能路由机制,也是一个非常有特点的技术,核心思想是通过合理的选择路由,只使用一部分网络设备来承载流量,没有承载流量的设备进行休眠或者关闭。Elastic Tree提出了一种全网范围的能耗优化机制,它通过不断的检测数据中心流量状况,在保障可用性的前提下实时调整链路和网络设备状态,Elastic Tree探讨了bin-packer的贪心算法、最优化算法和拓扑感知的启发算法来实现节能的效果。
通过以上可以看到数据中心发展非常多样化,驱动这些技术发展的根本性力量就是成本,人们希望用最低的成本达成最优的数据中心效能,同时内部拓扑方案的研究已经慢慢成熟,目前设备厂商的羹汤可以说就是市场化选择的产物,但是数据中心网络传输协议、虚拟化、节能机制、SDN、服务链等方向的研究方兴未艾,尤其是应用定制的传输协议、虚拟网络带宽保障机制等等,这些学术方面的研究并不仅仅是纸上谈兵,对于我知道的一些信息来说,国内的阿里在它的数据中心网络拓扑中早已经应用了FatTree的变种拓扑,思科也把数据中心内部TCP重传的技术应用在自己的芯片中,称其为CONGA。
坦白来说,网络从来都不是数据中心和云计算的核心,可能未来也不会是,计算资源的形态之争才是主战场,但是网络恰恰是数据中心的一个难点,传统厂商、学术界、大厂都集中在此领域展开竞争,创新也层出不穷,希望能拓展我们的技术视野,能对我们有一些启发,莫听穿林打叶声、何妨吟啸且徐行~名思义,服务器电源就是指使用在服务器上的电源(POWER),它和PC(个人电脑)电源一样,都是一种开关电源。
服务器电源按照标准可以分为ATX电源和SSI电源两种。ATX标准使用较为普遍,主要用于台式机、工作站和低端服务器;而SSI标准是随着服务器技术的发展而产生的,适用于各种档次的服务器。
ATX标准
ATX标准是Intel在1997年推出的一个规范,输出功率一般在125瓦~350瓦之间。ATX电源通常采用20Pin(20针)的双排长方形插座给主板供电。随着Intel推出Pentium4处理器,电源规范也由ATX修改为ATX12V,和ATX电源相比,ATX12V电源主要增加了一个4Pin的12V电源输出端,以便更好地满足Pentium4的供电要求(2GHz主频的P4功耗达到524瓦)。
SSI标准
SSI(Server System Infrastructure)规范是Intel联合一些主要的IA架构服务器生产商推出的新型服务器电源规范,SSI规范的推出是为了规范服务器电源技术,降低开发成本,延长服务器的使用寿命而制定的,主要包括服务器电源规格、背板系统规格、服务器机箱系统规格和散热系统规格。
根据使用的环境和规模的不同,SSI规范又可以分为TPS、EPS、MPS、DPS四种子规范。
EPS规范(Entry Power Supply Specification):主要为单电源供电的中低端服务器设计,设计中秉承了ATX电源的基本规格,但在电性能指标上存在一些差异。它适用于额定功率在300瓦~400瓦的电源,独立使用,不用于冗余方式。后来该规范发展到EPS12V(Version20),适用的额定功率达到450瓦~650瓦,它和ATX12V电源最直观的区别在于提供了24Pin的主板电源接口和8Pin的CPU电源接口。联想万全2200C/2400C就采用了EPS标准的电源,输出功率为300W,该电源输入电压宽范围为90~264V,功率因数大于095,由于选用了高规格的元器件,它的平均无故障时间(MTBF)大于150000小时。
TPS规范(Thin Power Supply Specification):适用于180瓦~275瓦的系统,具有PFC(功率因数校正)、自动负载电流分配功能。电源系统最多可以实现4组电源并联冗余工作,由系统提供风扇散热。TPS电源对热插拔和电流均衡分配要求较高,它可用于N+1冗余工作,有冗余保护功能。
MPS规范(Midrange Power Supply Specification):这种电源被定义为针对4路以上CPU的高端服务器系统。MPS电源适用于额定功率在375瓦~450瓦的电源,可单独使用,也可冗余使用。它具有PFC、自动负载电流分配等功能。采用这种电源元件电压、电流规格设计和半导体、电容、电感等器件工作温度的设计裕量超过15%。在环境温度25度以上、最大负载、冗余工作方式下MTBF可到150000小时。
DPS规范(Distributed Power Supply Specification):电源是单48V直流电压输出的供电系统,提供的最小功率为800瓦,输出为+48V和+12VSB。DPS电源采用二次供电方式,输入交流电经过AC-DC转换电路后输出48V直流电,48VDC再经过DC-DC转换电路输出负载需要的+5V、+12V、+33V直流电。制定这一规范主要是为简化电信用户的供电方式,便于机房供电,使IA服务器电源与电信所采用的电源系统接轨。
虽然目前服务器电源存在ATX和SSI两种标准,但是随着SSI标准的更加规范化,SSI规范更能适合服务器的发展,以后的服务器电源也必将采用SSI规范。SSI规范有利于推动IA服务器的发展,将来可支持的CPU主频会越来越高,功耗将越来越大,硬盘容量和转速等也越来越大,可外挂高速设备越来越多。为了减少发热和节能,未来SSI服务器电源将朝着低压化、大功率化、高密度、高效率、分布式化等方向发展。服务器采用的配件相当多,支持的CPU可以达到4路甚至更多,挂载的硬盘能够达到4~10块不等,内存容量也可以扩展到10GB之多,这些配件都是消耗能量的大户,比如中高端工业标准服务器采用的是Xeon(至强)处理器,其功耗已经达到80多瓦特(W),而每块SCSI硬盘消耗的功率也在10瓦特(W)以上,所以服务器系统所需要的功率远远高于PC,一般PC只要200瓦电源就足够了,而服务器则需要300瓦以上直至上千瓦的大功率电源。在实际选择中,不同的应用对服务器电源的要求不同,像电信、证券和金融这样的行业,强调数据的安全性和系统的稳定性,因而服务器电源要具有很高的可靠性。目前高端服务器多采用冗余电源技术,它具有均流、故障切换等功能,可以有效避免电源故障对系统的影响,实现24×7的不停顿运行。冗余电源较为常见的是N+1冗余,可以保证一个电源发生故障的情况下系统不会瘫痪(同时出现两个以上电源故障的概率非常小)。冗余电源通常和热插拔技术配合,即热插拔冗余电源,它可以在系统运行时拔下出现故障的电源并换上一个完好的电源,从而大大提高了服务器系统的稳定性和可靠性。
在购买服务器时要注意一下本机电源,起码应该关注如下两点:
1电源的品质,包括输出功率、效率、纹波噪音、时序、保护电路等指标是否达标或者满足需要;
2注意电源生产厂家的信誉、规模和支持力度,信誉比较好、规模较大、支持及时的厂家,比如台达、全汉、新巨等等,一般质量较可靠,在性价比方面也会好很多。选购时具体可参考以下指标:
功率的选择:市场上常见的是300W和400W两种,对于个人用户来说选用300W的已经够用,而对于服务器来说,因为要面临升级以及不断增加的磁盘阵列,就需要更大的功率支持它,为此使用400W电源应该是比较合适的。
安规认证:只有严格地考虑到产品品质、消费者的安全、健康等因素,对产品按不同的标准进行严格的检测,才能通过国际合格认证,安规认证是我们选购电源的重要指标,这应该是我们选择电源时最重要的一点。因为它关系着我们的安全和健康。不好的电源噪声很大,对人的身体有影响。在这方面省下几百块钱是得不偿失的。现在的电源都要求通过3C认证。(3C认证是"中国国家强制性产品认证(China Compulsory Cerlification)"的简称。实际上是将CCEE(中国电子电工产品安全认证)、CCIB(中国进口电子产品安全认证)、EMC(电磁兼容性认证)三证合一,在2003年5月1日后强制执行3C认证。)
电压保持时间:对于这个参数主要是考虑UPS的问题,一般的电源都能满足需要,但是如果UPS质量不可靠的话,最好选一个电压保持时间长的电源。
冗余电源选择:这主要针对对系统稳定性要求比较高的服务器,冗余一般有二重冗余和三重冗余。
对主板的支持:这个因素看起来不重要,在家用PC也很少见,但在服务器中却存在这种现象,因此在选购时也要注意。
服务器标准电源没有特别的标准,每个厂商都会按照机器的最大配置来配电源的。
服务器电源一般在750W以上,常见的种类为750W,800W,950W,1000W及1200W。
扩展资料:
服务器电源就是指使用在服务器上的电源(POWER),它和PC(个人电脑)电源一样,都是一种开关电源。服务器电源按照标准可以分为ATX电源和SSI电源两种。ATX标准使用较为普遍,主要用于台式机、工作站和低端服务器;而SSI标准是随着服务器技术的发展而产生的,适用于各种档次的服务器。
在购买服务器时要注意一下本机电源,起码应该关注如下两点:
1电源的品质,包括输出功率、效率、纹波噪音、时序、保护电路等指标是否达标或者满足需要;
2注意电源生产厂家的信誉、规模和支持力度,信誉比较好、规模较大、支持及时的厂家,比如台达、全汉、新巨等等,一般质量较可靠,在性价比方面也会好很多。
电源指标:
功率的选择:市场上常见的是300W和400W两种,对于个人用户来说选用300W的已经够用,而对于服务器来说,因为要面临升级以及不断增加的磁盘阵列,就需要更大的功率支持它,为此使用400W电源应该是比较合适的。
安规认证:只有严格地考虑到产品品质、消费者的安全、健康等因素,对产品按不同的标准进行严格的检测,才能通过国际合格认证,安规认证是我们选购电源的重要指标,这应该是我们选择电源时最重要的一点。因为它关系着我们的安全和健康。不好的电源噪声很大,对人的身体有影响。在这方面省下几百块钱是得不偿失的。电源都要求通过3C认证。(3C认证是"中国国家强制性产品认证(China Compulsory Cerlification)"的简称。实际上是将CCEE(中国电子电工产品安全认证)、CCIB(中国进口电子产品安全认证)、EMC(电磁兼容性认证)三证合一,在2003年5月1日后强制执行3C认证。)
电压保持时间:对于这个参数主要是考虑UPS的问题,一般的电源都能满足需要,但是如果UPS质量不可靠的话,最好选一个电压保持时间长的电源。
冗余电源选择:这主要针对对系统稳定性要求比较高的服务器,冗余一般有二重冗余和三重冗余。
参考资料来源:百度百科:服务器电源
微端服务器要100Mbps至1Gbps之间。微端服务器的带宽要求取决于多种因素,如服务器的规模、访问量、服务器上托管的应用程序、内容类型和大小等等。通常来说,微端服务器的带宽要求会随着访问量和服务器上托管的内容数量的增加而增加。微端服务器的带宽需求在100Mbps至1Gbps之间。如果你预计有大量的用户同时访问服务器,或者需要处理大量的数据传输,那么你可能需要更高的带宽。总体分为这几大类:VPS服务器:VPS是一台实体主机虚拟成多个小主机,其中的CPU、内存都是共享的,有的时候一台机器上面可能会几十、上百个VPS。一旦这台实体主机挂了,它上面所有VPS也都会跟着遭殃,性能往往得不到保障。
云服务器:云服务器是数量庞大的服务器阵列,在均衡负载之后诞生很多虚拟主机,集群中每个服务器上都有云主机的一个镜像,除非所有的集群内服务器全部出现问题,云主机才会无法访问。所以无论是数据安全还是性能都有基本的保证。而且在云主机上,IP、CPU、内存这些都是独享隔离开的,不会出现大家抢内存,谁都跑不动的情况。
专用/独立服务器:是一台真实的服务器/主机,这台主机是单独的 只让你自己使用,你可以让服务器更换硬盘 更换内存等 *** 作,不会出现有第二个人占用你的资源
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)