R系列服务器和C系列有什么不同

R系列服务器和C系列有什么不同,第1张

尊敬的用户您好:首先非常感谢您关注我们,我们将竭诚为您服务。
您所指的R系列是侧重于扩展性和卓越性价比,适用于中小企业;
而C系列则侧重吞吐量和超密集型高性能,适合于大企业,C系列服务器,比R系列支持的内存要多,内部更密集,价格也相对高一些,目前用户不能在网上下单,只能通过高级经销商和项目大订单采购。C系列等于是介于R系列机架式和M系列刀片式服务器中间。
戴尔衷心感谢您的支持,祝您生活愉快!

那台服务器是Dell R7525,用了2块AMD EPYC 7763处理器,该处理器有64个核心128个线程,基础频率245GHz,最大加速频率35GHz,内存是32根64GB的ECC内存,合计就是2TB内存,硬盘方面,启动盘是 Intel Optane P5800X,这个硬盘的读写速度能够达到每秒74个G,存储盘用了两种,一种三星PM1643,单个容量30TB,用了16个,另一种是三星PM1733 ,单个容量15TB,用了4个,显卡是3张RTX 3090。

看完这个配置,只能说真豪,这些硬件算下来价格应该超过100万了,其中处理器部分要10几万,存储部分应该要六十多万了,内存应该也要十来万了,显卡和服务器反而显得便宜了,此外还没有说专线宽带方面的花费。

那么这个服务器和我们普通使用的电脑有什么区别呢?其实我们看看CPU大概就知道了,AMD EPYC 7763这款处理器的核心数量虽然很多,但是我们发现它的频率并不高,最高加速频率才35GHz,而普通桌面处理器的频率是很容易上4GHz的,而这个也是桌面平台唯一的优势了吧。

其他方面好像就没得比了,在IO部分,服务器无疑是吊打桌面平台,服务器平台的内存通道更多,支持更高的内存容量,桌面现在还是双通道内存,服务器上面早就8通道了,服务器平台支持的PCI-E数量也更多,在稳定性上面,服务器也会更稳定。

总之服务器往往会有更多的核心数量,更强的IO性能,更强的稳定性,但是这种产品不一定适合普通用户,因为服务器的CPU主频往往更低,这对于 游戏 玩家来说,显然影响会比较大,而且服务器的噪音也比较大,所以并不适合家用,对于这种顶尖的服务产品,大家看看就好。

为啥不直接搞个超级电脑?

看起来似乎有强行把芯片设计和数据中心建设拉到一起尬聊的感觉,但世间也没有那么多的一见如故,一些有意义的讨论未尝不是从尬聊开始的。

就我个人而言,今年已经多次在关于数据中心的文章和(线上)分享中提到AMD:“从1月29日开始到2月6日,腾讯会议每天都在进行资源扩容,日均扩容云主机接近15万台,8天总共扩容超过10万台云主机,共涉及超百万核的计算资源投入,全部由腾讯云自研的服务器星星海提供支撑。”这款服务器基于AMD去年8月发布的代号Rome(罗马)的第二代EPYC处理器,最大的特点就是核多——双路配置再算上超线程,一台采用腾讯云定制版EPYC处理器的星星海服务器可以为云服务器提供多达180个核——也就是说,这100万核服务器资源,“只”需要不到6000台该款自研服务器即可满足。

腾讯云星星海SA2服务器采用2U高度结合类似远程散热片(remote heat-sink)的设计,配合6个60mm风扇,据称可以支持2个300W级别的CPU(AMD第二代EPYC处理器公开版本最高TDP为280W)

实际上,官方名称为AMD EPYC 7002系列的第二代EPYC处理器最多能提供64个核芯、128个线程,腾讯云定制版本选择了48核芯(96线程)而已。至少在CPU的核数(core count)上,AMD给Intel(英特尔,昵称“大英”)造成了很大的压力。上个月英特尔发布了代号为Cooper Lake的第三代至强可扩展处理器(Xeon Scalable Processor,XSP),主打四路和八路市场,四路配置可提供112核芯224线程,核数上堪与双路EPYC 7002系列抗衡,为10nm制程的Ice Lake争取时间。

摩尔定律难以延续的后果就是CPU的功耗持续攀升,第一代至强可扩展处理器(公开版)里TDP最高的205W,到第三代已是寻常,250W算是克制——毕竟要考虑四路的散热需求

话说上一次AMD搞得大英如此狼狈,还要追溯到本世纪初的64位路线之争。众所周知,英特尔是x86及其生态(特别是软件生态)的缔造者,属于“亲妈”级别,AMD充其量是个“后妈”。但是,x86几十年的发展史证明,“亲妈”未必就比“后妈”更了解孩子的发展潜力。也可以前一阵大火的剧集《隐秘的角落》为例,看完就会发现,对于朱朝阳的隐藏能力,后妈的认知似乎先于亲妈。

Cooper Lake:你看我还有机会吗?

简单的说,Intel建立发展x86生态,AMD坚定捍卫x86路线——不断改造作为生态核心的x86处理器,焕颜新生

盛衰无常:架构与制程的双簧

虽然已经在过去十年中逐渐沦为爱好者口中的“牙膏厂”,但在历史上,英特尔一直不乏创新精神。对待x86的态度可以算是这种精神的一个体现,起码在进入64位时代之前,英特尔其实不太瞧得上x86,总觉得这个娃太low——可能是亲妈更了解孕育过程中的种种先天不足吧——几次三番地在重大的转折点,想要“与时俱进”,重起炉灶,带给用户“船新体验”。反而是AMD屡屡在关键时刻出来捍卫x86,通过翻新加盖来维持其生命力。

64位是关键的转折点。上世纪九十年代末,还是32位的x86刚“插足”服务器市场不久,英特尔选择与惠普(HP)联手开发基于IA-64架构的Itanium(安腾)作为接班人,与已经64位了的RISC阵营大佬们对抗。然而,AMD认为x86还可以抢救一下,决定通过64位扩展来“续命”,并在2003年4月发布首款64位x86处理器Opteron,两年后又把x86(-64)带入多核时代。

此时,英特尔已经在IA-64的路上走了十多年。时过境迁,当初设定的目标并没有实现,而x86扩展到64位和多核之后,不仅软件和应用的生态系统得到了完整的继承,性能也完全可以一战。用户用脚投票,大英不得不从。

第二代EPYC处理器发布会上,Google出示2008年7月9日上线的其第100万台服务器的照片,追诉与AMD的革命友情……还是台四路服务器

英特尔痛定思痛,决定用架构和制程构筑双保险,在2007年提出了Tick-Tock(取自于时钟的“嘀-嗒”周期)量产模式,即先通过制程升级将芯片面积缩小,是为Tick;再基于 *** 练纯熟的制程改用新的微架构,是为Tock。当时的英特尔工厂在技术和产能上都占据明显优势,只要架构上回到正轨,左右手组合拳一出,产量受限的AMD哪里支撑得住?在2008年推出Nehalem微架构之后,英特尔终于夺回主动权。

在英特尔施加的强大压力下,AMD在处理器架构上也犯了错误,2011年推出的Bulldozer(推土机)架构采用了即使现在看来也过于激进的模块化设计。随着2012年英特尔开启至强E5时代,AMD在节节失利后不得不退出服务器市场,上一个巅峰期彻底结束。

有道是:福兮祸所依,祸兮福所伏。先贤曾经曰过:纵有架构、制程双保险,奈何CEO是单点。2016年英特尔推出最后一代至强E5/E7(v4),这是英特尔首批采用14nm制程的服务器CPU,同时也宣告了Tick-Tock模式的终结,改用Process–Architecture–Optimization (制程-架构-优化)的三步走模式。

在这个可以简称为PAO的模式里,虽然仍是先制程、后架构的节奏,但新加入的优化不管是针对两者中的哪一个还是兼而有之,都起到了拉长制程换代周期的效果。第三代至强可扩展处理器已经是第四波采用14nm制程的服务器CPU,14nm后面的“+”都数不清楚有几个了——还好预计年底发布的Ice Lake将终止这个“土拨鼠之日”式的制程循环。

架构层面上,从代号Skylake的初代至强可扩展处理器开始,由环形总线改为6×6的2D-mesh,然后持续“优化”。在架构的角度,Mesh和环形总线都属于所谓传统的单片(Monolithic)式架构,优点是整体性好,涉及到I/O的性能比较有保证;缺点是对制程不太友好,随着规模的扩大,譬如核数和Cache的增加,良率上的挑战很大,高端产品的成本下不来,这对于追求高核数的云计算服务提供商显然不是个好消息。


至强E5/E7 v4的四环(2组双向环形总线)与至强SP的6×6 Mesh架构

关键时刻,又是沉寂多年的AMD挺身而出,接盘Tick-Tock,以自己的方式“维护”摩尔定律。

这个方式,就是模块化。

MCM:同构对等模块化的利与弊

先简单回顾一下AMD之前的模块化设计为什么会失败。 Bulldozer架构的模块化设计,建立在AMD对未来应用趋势的不靠谱假设上,即整数(Integer,INT)运算将占据绝对主导地位,结论是增加整数运算单元,减少浮点(Floating Point,FP)运算单元。 于是,Bulldozer架构很“鸡贼”的采用了两个(具有完整整数运算单元的)核芯共用一个浮点运算单元的模块化设计,两个模块就可以提供4个核芯(但只有2个浮点运算单元),6核以此类推。

模块化本身并没有错,Intel Nehalem的模块化设计就很成功。Bulldozer错在“拆东墙补西墙”,结果连补强都算不上

不用放马后炮,这也是一个妄揣用意(用户意志)的行为。即使是在AI大行其道的今天,第二代英特尔至强可扩展处理器已经支持INT8加速推理运算,也不能和通常意义上CPU的整数运算划等号。贸然押宝,错了当然怪不得别人。

不难看出,Bulldozer的模块化,与之前Intel Nehalem架构的模块化设计,只限于架构层面,并不是为制程考虑——CPU不论几个模块多少核,都是作为一个整体(die)来制造的,毕竟十年前制程还没到瓶颈。

然而,到了AMD以代号Naples的(第一代)EPYC处理器重返服务器市场的2017年,摩尔定律放缓的迹象已很明显。同样的14nm(可能还没有英特尔的先进)制程,AMD如何以更低的成本提供更多的核芯?

EPYC系列处理器基于AMD的Zen系列架构,从Zen、Zen+到Zen 2,以及规划中的Zen 3的发展路线,有点像前面提到的Tick-Tock:开发一个良好的基础然后交替演进,不断优化。

与先辈们不同,Zen系列的模块化明显侧重于解决制程面对的挑战,即芯片在物理上被切割为多个die(比较小的芯片更容易制造,良率有保证,有利于降低成本),通过Infinity Fabric(IF)互连为一个整体,所以每个die就是一个模块,但不一定是模块化设计的最小单位。

第一代EPYC处理器的4个die及Infinity Fabric示意

还是从初代EPYC处理器所采用的Zen架构说起。Zen确立了该系列计算单元模块化的最小单位CCX(Core Complex,核芯复合体),每个CCX包括4个Zen核芯(Core),以及8 MiB共享L3 Cache,每核芯2 MiB。

从AMD公开的示意图来看,各片(Slice)L3 Cache之间的连接方式像是full-mesh(全网状,即每两个点之间都有直接连接,无需跳转),CCX内部的跨核芯L3 Cache访问是一致的

Zen的CCD里除了2个CCX,还有2个DDR内存控制器(各对应1个内存通道),用于片上(die之间)互连的Infinity Fabric(IF On-Package,IFOP),而CPU之间互连的Infinity Fabric(IF Inter-Socket,IFIS)与对外的PCIe通道是复用的——这个知识点在后面会用到。

芯片层面的模块是CCD(Core Complex Die),包括2个CCX,共8个Core、4 MiB L2 Cache、16 MiB L3 Cache。官方名称为AMD EPYC 7001系列的第一代EPYC处理器只有CCD这一种(die层面的)模块,所以每个CCD除了2个CCX,还有大量I/O接口器件,包括DDR、Infinity Fabric/PCIe控制器,CCX占CCD面积的比例只比一半略多(56%)。

这个多芯片模块(multi-chip module,MCM)架构的代号为Zeppelin(齐柏林),四个这样的“复合型”CCD构成完整的第一代EPYC处理器,最多能提供32核芯、64 MiB L3 Cache,直接减少CCD的数量就会得到面向PC市场的高端(2×CCD)和主流产品(单CCD)。

按照AMD提供的数据:每个die的面积为213mm²(平方毫米),4个die的MCM封装总面积为852mm²,如果要用大型单一芯片来实现,面积可以缩小到777mm²,大约节省10%,但是制造和测试成本要提高约40%,完全32核的收益下降约17%、成本提高约70%。投入产出比当然非常划算,也变相的说出了大英的苦衷——可是,后者为什么还在坚持单片路线呢?

MCM这种完全对称的模块化方案,如果套用到数据中心领域,相当于一个园区,几栋建筑结构和功能完全一样,都包含了机房、变配电、柴发、冷站、办公和接待区域等。好处当然是彼此之间没有硬性依赖,每栋建筑都可以独立作为数据中心使用,照此复制就可成倍扩大规模;缺点是没有其他类型的建筑,而有些功能还是需要专门的建筑集中和分区管理的,譬如人员办公和统一接待……

如果一个数据中心园区只有黄框里这一种建筑(模块)……实际上,加上左边的66KV变电站,这里也只是整个园区的一角

况且,与绝大多数的数据中心园区不同,CPU对各模块之间的耦合度要求高得多,否则无法作为一个整体来运作,分工合作快速完成数据处理等任务。而这,正是MCM方案的局限性所在。

第一代EPYC的每个CCD都有“自己的”内存和I/O(主要是PCIe)通道,加上CCD之间的互连,每个CCD的外部I/O都很“重度”

多芯片(对称)设计、全“分布式”架构的特点是内存和I/O扩展能力与CCD数量同步,随着核芯数量的增加,内存和I/O的总“容量”(包括带宽)会增加,这当然是优点,但缺点也随之而来:

首先是局部性(locality)会降低I/O的性能,主要是跨CCD的内存访问时延(latency)明显上升。因为每组(2个)CCX都有自己的本地内存,如果要访问其他CCD上连接的内存,要额外花费很多时间,即所谓的NUMA(Non-Uniform Memory Access,非一致性内存访问)。虽然Zen的CCD上有足够多的IFOP,让4个CCD之间能组成全连接(full-mesh),无需经其他CCD跳转(类似于CCX内4个核芯之间的状况),但I/O路径毕竟变长了;如果要访问其他CPU(插槽)连接的内存,还要经过IFIS,时延会进一步上升。

CCD里的两个CCX也通过Infinity Fabric连接,同样会增加跨CCX的Cache访问时延

根据AMD提供的数据,不同内存访问的时延水平大致如下:

随着访问路径变长和复杂,时延以大约一半的比例增加,这个幅度还是很明显的。

同一个CCD里的内存访问没有明显差异,而跨CCD的内存访问,时延增加就很明显了

然后是PCIe,前面已经有图说明,Zen用于CPU之间互连的IFIS与PCIe通道是复用的,即单路(单CPU)的情况下全都用于PCIe通道,共有128个;双路(双CPU)的情况下每个CPU都要拿出一半来作为(两者之间的)IFIS,所以(对外的)PCIe通道数量仍然是128个,没有随着CPU数量的增加而增长。

简单归纳一下,Zen架构的问题是:核数越多,内存访问的一致性越差;CPU数量增加,外部I/O的扩展能力不变——NUMA引发的跨CPU访问时延增长问题还更严重。

单CPU就能提供128个PCIe 30通道原本是第一代EPYC处理器的一大优势,但双CPU仍然是这么多,就略显尴尬了

核数进一步增加的困难很大,不论是增加每个CCD的核数,还是增加CCD的数量,都要面临互连的复杂度问题,也会进一步恶化一致性。

说得更直白一些,就是Zen架构的扩展能力比较有限,难以支持更大的规模。

既然双路配置有利有弊,AMD又是时隔多年重返服务器市场,单路一度被认为是EPYC的突破口,譬如戴尔(Dell)在2018年初推出三款基于第一代EPYC的PowerEdge服务器,其中就有两款是单路。

1U的R6415和2U的R7415都是单路服务器

类似的情况在通常用不到那么多核及I/O扩展能力的PC市场体现得更为明显,在只需要一到两个CCD即可的情况下,消费者更多感受到的是低成本带来的高性价比,所以“AMD Yes!”的鼓噪主要来自个人用户,服务器市场在等待EPYC的进一步成熟。

只有1个die的Ryzen将Zen架构的缺点最小化,获得个人用户的喜爱也就不足为奇了

Chiplet:异构混合模块化的是与非

时隔两年之后,AMD推出基于Zen 2架构的第二代EPYC处理器,通过架构与制程一体优化,达到最高64核、256 MiB L3 Cache,分别是第一代EPYC的2倍和4倍,内存访问一致性和双路的扩展性也有不同程度的改善,终于获得了一众云服务提供商(CSP)的青睐。

Zen 2的整体设计思维是Zen的延续,但做了很多明显的改进,配合制程(部分)升级到7nm,突破了Zen和Zen+在规模扩展上的限制。

首先,Zen2架构延续了Zen/Zen+架构每个CCD有2个CCX、每个CCX有4个核芯共享L3 Cache的布局,但是每个核芯的L3 Cache增大一倍,来到4MiB,每个CCX有16 MiB L3 Cache,是Zen/Zen+架构的两倍。

CCD层面的主要变化是把DDR内存、对外的Infinity Fabric(IFOP/IFIS)和PCIe控制器等I/O器件剥离,以便于升级到7nm制程。AMD表示,第一代EPYC中,上述I/O器件占CCD芯片面积的比例达到44%,从制程提高到7nm中获益很小;而第二代EPYC的7nm CCD中,CPU和L3 Cache这些核心计算、存储器件的占比,高达86%,具有很好的经济性。

被从CCD中拿出来的DDR内存控制器、Infinity Fabric和PCIe控制器等I/O器件,组成了一个单独的I/O芯片,即I/O Die,简称IOD,仍然采用成熟的14nm工艺。

自左至右,分别是传统单片式、第一代EPYC的MCM、第二代EPYC的Chiplet三种架构的示意图

一个IOD居中,最多8个CCD围绕着它,AMD把这种做法称为Chiplet(小芯片)。

如果继续拿数据中心的模块化来强行类比,相当于把整个园区内的变电站、柴发、冷站、办公和接待区域都整合到一个建筑里,位于园区中央,周围是构造完全相同的一座座机房楼……你说,这样一个所有机房楼都离不开的建筑,该有多重要?

仅从布局看,和第二代EPYC处理器有点像的数据中心,但变电站在园区外,制冷也是分布式的(与4个机房模块在一起),中间的建筑并没有上面设想的那么重要

第一代EPYC处理器(Naples)与第二代EPYC处理器(Rome)的片上布局对比,后者是1个IOD + 8个CCD,共9个小芯片组成的混合多die设计

因为CCD的数量增加一倍,所以Rome的核数可以达到Naples的两倍;因为每个CCX/CPU核芯的L3 Cache容量也增加了一倍,所以Rome的L3 Cache总容量可以达到Naples的四倍。

14nm IOD + 7nm CCD的组合——因为不是全部升级到7nm,所以我更愿意称之为制程的“优化”——体现了更高的扩展性和灵活性,使第二代EPYC能够以较低的制造成本提供更丰富的产品组合,提高了市场竞争力。但是,事情并没有看起来这么简单,要了解产品的具体构成和预期的性能表现,您还需要继续往下看。

2019年8月,第二代EPYC正式发布后不久,AMD在Hot Chips大会上介绍了Zen 2产品的Chiplet设计。可能是之前有Zen+架构采用12nm制程的缘故吧,IOD的制程被写成了12nm,其他场合的官方材料都是14nm,所以我们还是以后者为准

今年2月IEEE的ISSCC(International Solid-State Circuits Conference,国际固态电路峰会)2020上,AMD更详细的介绍了Zen 2这一代产品的设计。结合前一幅图可以看到,第二代EPYC的IOD具有834亿晶体管,数量与同样采用14nm制程的英特尔Skylake/Cascade Lake相当——虽然两者的晶体管类型构成有很大差别,但可以作为一个参照,说明这个IOD自身的规模和复杂度。

从红框中的选项来看,EPYC 7302 CPU有4个CCD,每个CCX有2个核芯,可以选择各启用1个

IOD集中所有I/O器件的一个好处是,CPU能提供的内存通道数量与CCD的数量无关。E企实验室前一阵测试了基于第二代EPYC处理器的Dell PowerEdge R7525服务器,送测配置包括2个AMD EPYC 7302处理器,从PowerEdge R7525的BIOS设置中可以看到,这款16核的CPU有4个CCD(而不是8个),应该对应下图中右二的情形:

上方柱状图是AMD列出7+14nm Chiplet方案与假设的单片7nm方案相比,成本优势可以达到一半以上(64核没有假设,可能是指单片式很难制造);下方从左至右依次是8、6、4、2个CCD的布局,原则是尽可能的对称

虽然7302在EPYC 7002系列产品中定位偏低端,只有16个核芯,用4个CCX就能满足,但是它拥有128MiB的L3 Cache,这又需要8个CCX才可以。因此,7302的每个CCX只有2个核芯,享受原本属于4个核芯的16 MiB L3 Cache。

从EPYC 7002系列的配置表中可以看出,7302下面72开头的产品才是真正的低端,譬如同样是16核的7282,不仅L3 Cache容量只有7302的一半(倒是符合每核4 MiB的“标配”),而且仅支持4个内存通道,也是7302等产品的一半——说明其CCD数量是2个,就像前一幅图右下方所示的情况——4个内存通道配置的运行频率也低,只有DDR4-2667,与标准的8通道DDR4-3200相比,理论内存带宽仅为40%多

Dell PowerEdge R7525用户手册里对内存条的安装位置有很详细的说明,毕竟插满8个内存通道和只用4个内存通道,性能差距太大

IOD集中所有I/O对性能也有好处,因为内存控制器集中在一个芯片上,有助于降低内存访问的局部性(NUMA)。不过,AMD在很多场合放出的示意图很有误导性,容易让人以为,对Rome(下图右侧)来说,同一个CPU上的内存访问是不存在NUMA的。

从上面的数据来看,第二代EPYC处理器的“本地”内存访问时延有所增长,毕竟内存控制器和CCX不在一个die上了;收益是跨CPU内存访问的时延有所下降,总体更为平均

好在,稍微详细一点的架构示意图表明,一个EPYC 7002系列CPU内部的内存访问仍然会有“远近”之分:

Dell PowerEdge R7525的BIOS配置中,可以在L3 Cache的NUMA设置为Enabled之后,看到每个CPU内部其实还是可以像EPYC 7001系列一样,分成4个不同的NUMA区域

这时学术性会议的价值就体现出来。AMD在ISSCC 2020上的演讲表明,完整版的Server IOD要承载的功能太多,已经有太多的晶体管,中间都被Infinity Fabric和PCIe相关的I/O所占据,内存控制器只能两两一组布置在IOD的四角,每2个CCD就近共享2个内存控制器。由于中间已经没有走线空间,只能构成一个没有对角线连接的2D-mesh拓扑——仅从拓扑角度而论,还不如EPYC 7001系列4个CCD的full-mesh连接方式。所以,临近的访问有长短边造成的延迟差异,对角线的内存访问因为要走过一长一短两条边,没有捷径可走,自然要更慢一些。

注意放大看IOD布局示意图和右侧1~4的不同等级时延注解,可以理解为每个CPU内部仍然分为4个NUMA区域:本地、短边、长边、(拐个弯才能抵达的)对角线

Hot Chips大会上的这张示意图突出了不同功能的Infinity Fabric导致的IOD中部拥挤,和DDR内存控制器都被挤到边角上的感觉。结合前一张图,不难理解,像EPYC 7282这样只有2个CCD对角线布置的低端SKU,另一条对角线上的4个DDR内存控制器主要起增加内存容量的作用,不如只保留CCD就近的4个内存通道

总之,不管是EPYC 7001系列的MCM,还是EPYC 7002系列的Chiplet,随着芯片数量的增长,性能肯定会受到越来越明显的影响(而不是近乎线性的同步提升),只是好的架构会延缓总体性能增长的衰减速度。

这里我们可以回过头来看看同样基于Zen 2架构的第三代AMD Ryzen处理器,主流PC产品没有那么多核数要求,只用2个CCD即可满足,所以其配套的Client IOD(cIOD)正好是Server IOD的四分之一,从前面图中晶体管数量的对比(209亿 vs 834亿)也可以看出来。

代号“Matisse”的第三代Ryzen,仍然可以看到两个DDR4内存控制器偏居一隅的“遗存”,但对两个CCD已经公平了很多,基本不存在NUMA问题。也就难怪“AMD真香”党在消费类用户中比例要大得多

尽管CCD升级到了7nm,但更多核芯、更大得多的L3 Cache,意味着整体功耗的上升,譬如同样16核的7302和7282,前者Cache大一倍,频率略有提高,默认TDP就来到了155W,Dell为送测的R7525配备了180W的散热器——而EPYC 7282的TDP则“只有”120/150W。当然,CCD应用7nm的效果还是比较明显的,同样16核、L3 Cache只有7302四分之一,运行频率还低500MHz的7301,TDP也有150/170W,基本与7302相当。

为了满足云计算、高性能计算(HPC)和虚拟化等场景的用户需求,AMD又向EPYC 7002系列CPU中增加了大量多核大(L3) Cache以及核数虽少但频率很高的型号(如今年初发布的7Fx2系列),导致全系列产品中TDP在200W以上的SKU占比很高,也给服务器的散热设计带来了更高的挑战。

200W+的CPU将越来越常见

EPYC 7002系列的另一大改进是PCIe从30升级到40,单路仍然是128个通道,但双路可以支持多达160个通道(譬如Dell PowerEdge R7525的特定配置)——在主板支持的情况下。第一代EPYC处理器推出时的一个卖点是,为其设计的主板也可以支持第二代EPYC处理器。没有广而告之的是,要支持PCIe 40,主板需要重新设计。用老主板可以更快的把第二代EPYC处理器推向市场,却不能充分发挥新CPU的全部能力。

不过,PCIe 40本身就是一个很大的话题,留待以后(有机会的话)专文讨论。


云主机更加d性,可以按量随时扩容;而物理机性能更好些。

详情的区别往下看:

一、概念区别

云主机,也就是云服务器,是云计算的新一代产品,它是通过虚拟化、集群技术进行资源整合,通过云端控制平台按需生成相关主机资源。

而物理机,也就是服务器租用托管,可以理解为我买了一台电脑放在机房。

二、使用区别

云服务器是一种可d性伸缩的计算、网络、存储服务,其管理方式比物理服务器更加高效简单。

与此同时,云服务器可以做到即买即用,无需像物理机那样,还需要服务器采购、上架、系统安装

三、收费区别

就拿景安4核8G5M云服务器和物理机来对比,云服务器价格大概5000左右,而物理机则需要9000左右。

四、其它投入

使用物理机的话,有可能你还需要招一个专门负责服务器运维的员工,而云服务器的话只需要有网站开发人员和后续网站程序维护的人员即可。一般的云服务器环境部署、故障排查像景安都免费提供的有。

云主机

扩展资料:


云主机的使用场景

1、初次选择主机服务,对运维管理投入有限的用户;

2、对网络品质有要求,同时成本控制严格的中大型企业;

3、基础应用过Web页面集中管理租用的分布在多个云计算节点的云主机;

4、备机、SaaS分布式部署、硬件网络随时需要扩充。

参考资料:

景安网络-云主机和服务器区别?

                  百度百科-云主机

中小企业采购机架式服务器和塔式服务器时需要考虑:
1服务器的计算速度,内存大小,硬盘存储空间等硬件配置。
2服务器的可承受同时连接用户数量。
3服务器的平均无故障使用时间。
4服务器的功耗,散热和对 温度,湿度,海拔等外部环境的要求。
5服务器的价格和使用年限。
6服务器的硬件可升级性和扩展性。
7服务器的安装,部署,管理,维护的成本和故障后修复的时限。
8服务器的安全策略和备份策略,防止数据以外丢失。
服务器带来便利
事先确定你的服务器所要扮演的角色会令你此后的购买决策变得更加顺畅。域控制服务器 域控制器是网络、用户、计算机的管理中心,提供安 全的网络工作环境。域控制器不但响应用户的登录需求,而且在服务器间同步和备份用户帐号、WINS、DHCP数据库等。它的系统瓶颈是内存, 除了 *** 作系统占用的内存外,每增加一个用户需占用1KB内存用于存储用户帐号。Web服务器 Web服务器是主要为用户提供各种Web应用的设备, 对服务器性能的要求也主要取决于网站的内容。
如果网站多以静态页面构成,那么在选择服务器的时候就要优先考虑磁盘系统的性能,采用高 转速SCSI硬盘以及RAID卡。如果网站所提供的服务多为动态页面,那么在选择服务器时就要注意配备高性能的处理器以及大容量内存。 文件服 务器 如果你想得到一台性能出色的文件服务器,首先需要注意的就是服务器的存储系统。现在的服务器都配备了千兆以太网接口,其网卡能够 提供的数据带宽在700Mbps左右。相对于网络速率,磁盘更容易成为文件服务器性能发挥的瓶颈。对于一台文件服务器,RAID系统是必备的。如 果您的采购资金充足,那么就选择SCSI RAID系统。 数据库服务器 数据库服务是对服务器负载要求比较高的一种应用模式。无论是处理器子系 统还是磁盘子系统,都应该配备最好的组件。对于一台数据库服务器,在处理器方面,通过采用多处理器可以在很大程度上提升数据库的运算 效率。在保证内存容量的前提下,磁盘系统也需要你额外注意。SCSI RAID系统在性能上会远远超越任何单一硬盘存储模式,而且从数据安全存 储的角度上考虑,RAID系统也非常值得投资。
处理器子系统
显然,处理器子系统是整个系统中执行各类应用的数据运算的关键部分。而在这个部分中,处理器又是最为关键的执行中心。所以,不论你购 买的服务器要在自己的业务中扮演什么样的角色,首先都要考虑应该选择一款什么样的处理器,而这种选择实际上也会或多或少地决定系统其 它部件的选择。
磁盘子系统
服务器中,磁盘系统的性能高低直接影响着服务器的整体性能,这点尤其体现在数据库服务器和文件服务器中。因此,在选择服务器产品时, 它应该成为你第二重点考察的对象。
目前应用在服务器上的硬盘主要有两类:SCSI和S-ATA硬盘,根据你的应用需求,我们首先需要在这两种类型之间做出选择。SCSI还是S-ATA 从容量上比较,S-ATA硬盘有着绝对的优势,而且其价格也远远低于同档SCSI硬盘。在主流S-ATA硬盘已达到250GB的同时,性能 最佳的SCSI硬盘Seagate Cheetah 15K的最大容量也只有146GB。从存储成本上考虑,S-ATA硬盘无疑胜出一筹。但是对于服务器的磁盘子系统而 言,容量仅仅是其众多需求之一,最为关键的还是磁盘系统的稳定性,对于承担关键应用的服务器更是如此。现在SCSI硬盘都可以达到一百万 小时以上的MTBF(平均故障时间)值,而普通S-ATA硬盘的MTBF都在八十万左右。两相比较,SCSI在稳定性上的优势就体现的十分明显了。
此外,磁盘系统的扩展性在采购时也要格外注意。统计表明,在大多数数据存储环境中,每18个月数据容量就会增长一倍。此时存储系统的可扩 展性就格外重要。而对于小型网络环境来说,利用服务器提供的在线存储又是十分常见的。如果用户采用的是SCSI硬盘,那么单通道SCSI接口 一般可安装七个SCSI接口设备,扩展SCSI接口最多可安装15个SCSI设备。S-ATA硬盘每个接口只能安装一个设备,而通常主板上只会提供2至6个 S-ATA接口,从扩展性上比较,SCSI要比S-ATA更为出色。
在服务器应用中,衡量硬盘性能主要有两个指标,一个是数据传输速率,另外一个则 是每秒I/O数。而对这两项指标起关键作用的则是单碟密度以及转速。在单碟密度上,现在的S-ATA硬盘已经做到了单碟146GB容量,远高于普通 的SCSI硬盘。
不过,由于SCSI硬盘转速普遍达到10000乃至15000,在I/O性能上仍远远高于S-ATA硬盘。此外,SCSI硬盘系统中的处理芯片可以 完成大部分数据读取所需的计算,所以在高负载数据读写过程中对处理器资源的占用要大幅度低于S-ATA系统。对于一些负载并不是很重的文件 、数据库服务器,用户可以为服务器配备S-ATA存储系统,而如果想要让数据库服务器提供更好的运行效率,那么SCSI系统还是非常值得考虑的 。RAID系统 对于任何一台承担关键应用的服务器,我们都强烈建议您为服务器配备RAID系统。因为RAID通过在多个硬盘上同时存储和读取数据 来大幅提高存储系统的数据吞吐量,而且在很多RAID模式中都有较为完备的相互校验/恢复的措施,甚至是直接相互的镜像备份,从而大大提高 了RAID系统的容错度,提高了系统的稳定冗余性。
随着S-ATA硬盘的流行,基于此类硬盘的RAID系统也逐步出现在服务器中。从RAID系统的整体 性能上看,S-ATA RAID虽然还无法与SCSI RAID并驾齐驱,但是其低廉的成本无疑可以帮助很多资金有限的用户实现高速、安全的数据存储。 RAID系统根据其功能以及组成可以分为多个级别,我们最为常见的模式就是RAID 0、RAID 1以及RAID 5。RAID 0模式至少由2块硬盘组成。该模 式在存储数据时由RAID控制器将数据分割成大小相同的数据条,同时写入阵列的磁盘。在读取时,也是顺序从阵列磁盘中读取后再由RAID控制 器进行组合再传送给系统。
这样,数据就等于并行的写入和读取,非常有助于提高存储系统的性能。不过,RAID 0还不能算是真正的RAID,因 为它没有数据冗余能力。由于没有备份或校验恢复设计,在RAID 0阵列中任何一个硬盘损坏就可能导致整个阵列数据的损坏—数据都是分布存 储,一损俱损。
RAID 1系统内硬盘的内容是两两相同的,两个硬盘的内容完全一样,这等于内容彼此备份,也就是我们常说的镜像模式。在写入时,RAID控制器并不是将数据分成条带而是将数据同时写入两个硬盘。RAID 1已经可以算是一种真正的RAID系统,但这是由一个硬盘的代价 所带来的效果,而这个硬盘并不能增加整个阵列的有效容量。
RAID 5是在服务器中最常用的RAID模式,这主要是由于其出色的性能与数据冗余 平衡设计。RAID 5是一种即时校验RAID系统,它采用了数据块的存储方式,但没有独立的校验硬盘(这也是它与RAID 3模式的区别),这是因 为它在每个独立的数据盘中都开辟了单独的区域用于存储同级数据的XOR校验数据。在写入时,同级校验数据将即时生成并写入,在读取时,同 级校验数据也将被即时读出并检查源数据的正确性。
总体来说,RAID 0模式主要应用在一些需要磁盘系统提供高速数据传输的场合,比如视频 编辑。RAID 1则由于其较高的数据安全性被广泛应用在财务数据存储等需要安全数据保护的场合,而对于任何一台同时要求性能和数据安全存 储的服务器,RAID 5是非常理想的选择。
其他组件
虽然上面提到的各个组件都会在不同程度上决定服务器产品的性能,进而决定它们能够胜任什么样的工作,在办公环境中担当那种类型的服务 器角色。但是我们并不能仅仅凭此就做出最终的产品购买选择,因为对于服务器这类产品而言,环境的复杂性和应用的多样性,使得用户还要 在更多方面给予仔细的考察。
首先,你需要评估自己的稳定性需求及候选产品的稳定性。对于服务器产品而言,合理的稳定性永远是第一位的。如果稳定性不能保证业务运 行的需要,那么再高的性能也是无用的。通常来说,正规的服务器厂商都会对其产品进行包括不同温度和湿度下的运行稳定性测试。如果你在 这些方面有具体的需求,可以在购买之前向候选对象索要相关资料。其次,你需要考虑自身业务环境下,服务器产品应该具备哪种水平的冗余 功能。实际上,冗余功能是保证服务器产品长时间不间断工作的关键。因为在大负载的工作条件下,很难保证服务器的每一个部件都能够完全 承担类似7x24小时不间断运行这类苛刻的要求。要使得系统不至于因为一个或两个部件的故障而导致停机,对一些关键或是容易出现故障的配 件采用冗余配置是保证系统稳定运行的最佳方案。
常见冗余部件
数据冗余:其目的是为了保证服务器中单一配件故障不会损伤硬盘中存储的数据或正在运行的程序。通常数据冗余包括硬盘冗余以及内存 冗余技术。前者主要通过RAID提供的校验以及热插拔功能实现对数据的保护以及重建;而后者则有内存热备、内存镜像等几种常见的实现方式 。
网卡冗余:指系统中的任何一块网卡损坏都不会造成网络服务中断。现在的部门级以上的服务器都会配备两块网卡,在系统正常工作时, 该双网卡将自动分摊网络流量,提高系统通信带宽,而当某块网卡出现故障或该网卡通道出现问题时,服务器的全部通信工作将会自动切换到 好的网卡或通道上。因此,网卡冗余技术可保证在网络通道故障或网卡故障时不影响正常业务的运转。
电源冗余:指系统中的任何一个电源故障都不会造成系统停机,也就是通过冗余电源来防止因电源故障造成的停机。它一般是指配备双份 支持热插拔的电源。若其中一台发生故障,另一台就会在没有任何影响的情况下接替服务器的供电工作,并通过灯光或声音告警。此时,系统 管理员可以在不关闭系统的前提下更换损坏的电源。一些低端冗余电源通常采用单电源接口、多电源模块的形式,如果你的服务器需要更为安 全的电源供应,那么可以选择那些每个电源模块都具有独立电源接口的冗余电源,这样可以避免因为插座故障、误拔插头造成的停机。
风扇冗余:指在服务器的关键发热部件上配置的降温风扇有主、备两套,这两套风扇具有自动切换功能,支持风扇转速的实时监测,发现 故障时可自动报警,并能启动备用风扇。若系统正常,则备用风扇不工作,而当主风扇出现故障或转速低于规定要求时,备用风扇立刻自动启 动,从而避免由于系统风扇损坏而导致系统内部温度过高,使得服务器工作不稳定或停机。在一些设计优秀的服务器中,这些冗余风扇都是以 模块化安装并支持免工具维护,可以很方便的实现热插拔。
对于中小企业来说,采购机架式服务器需要考虑哪些因素呢?
性价比首选
价格的因素对于资金相对短缺的中小企业来讲是采购的重要标准之一,但是决不能盲目的追求低廉的价格而放弃对品质和性能的要求,这样是很不明智的。选择性价比高的产品才是中小企业首要考虑的因素。所以国产的服务器对于中小企业有很高的吸引力,比如曙光,浪潮等国内知名服务器产商,同时作为国外服务器厂商的戴尔对于国内的用户同样有着很高的性价比。
总体投资成本(TCO)
中小企业用户在采购机架服务器产品,要从实际出发,不仅要满足企业当前的业务发展需要,同行还要顾及未来的发展。这就需要企业用户在选购时不能简单的考虑价格及因素,应该核算总体投资成本(TCO),在总体投资成本(TCO)中最重要的是高性能。另外,企业的数据和信息的安全很大程度上决定着业务运营。最后,中小企业业务发展迅速,因此,采购具有高可扩展性的服务器十分重要。
人性化 *** 作
中小企业规模和资金有限,很难为企业服务器管理维护配备专业的人员,这就要求服务器设计简单易用,管理上易 *** 作免工具等特点,这些同样是中小企业采购看重的一点。
比如:惠普DL380 G5
产品性能参数:最多配置2颗英特尔至强 5400系列或5300系列四核处理器,内存标配1GB ECC DDR2-667全缓冲内存,主板集成了8个内存插槽,这样内存最大可以扩展到32GB。
存储方面标配没有磁盘驱动器,机箱提供了8个纤小型(SFF)热插拔硬盘托架,可以安装8块25寸热插拔SAS硬盘。集成带有 TCP/IP 卸载引擎的两个嵌入式 NC373i 多功能千兆网络适配器。
理想应用:适用于中小企业数据库/文件/Web等应用,并且对于需要密集型部署的企业中心机房,服务运营商也有很好解决方案。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zz/13222752.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-06-22
下一篇 2023-06-22

发表评论

登录后才能评论

评论列表(0条)

保存