大家不要一听到服务器用就觉得高大上,性能一定非常好,其实不是的,服务器要的不是性能,而是稳定和多核处理能力,服务器基本上一开几百天不断电是很正常的,家用级别的估计早就蓝屏了,内存报错,CPU过热阿什么的早挂了,但是服务,一般采用的都ECC内存,很少会内存报错,服务器CPU都是多核多线程的,现在基本上8核16线程都是起步。这和服务器的应用场景有关,基本上都一群人连接一个服务器在使用,所以必须满足多线程 *** 作。
单就单核性能来说其实很多服务器CPU还不如个人PC的CPU,毕竟你一台电脑没啥情况不会同时开2000个软件吗,也不会联系打 游戏 100天不断电对吧。
服务器的CPU支持多CPU扩展,最低2个,多的服务器主板可以装4个甚至更多,而且核心比普通的CPU还多。
服务器CPU支持带ECC校验的内存。
前者耐 *** 功耗低主频低,后者不耐 *** 功耗高主频高
服务器的cpu支持所有的架构,常见的cpu支持x86的架构。
服务器有塔式和机柜式服务器,可以支持更多的cpu,通过专用的方法可以带电热拔插增加或者减少cpu,而且可以不停机维护保养。一台服务器理论上可以安装几千个服务器专用cpu,并且同时工作。
服务器的系统针对专用cpu做了优化,强化了数据处理能力。而且有些数据库平台软件也针对服务器专用cpu做了优化!
单纯的服务器cpu性能和普通的cpu比较,并没有什么优势。反而处于下风!一二级缓存也不一样!
还有就是服务器cpu的设计必满足一个要求,绝对的稳定!所以牺牲了一部分性能!和服务器专用的系统配合,绝对没有黑屏,蓝屏的现象出现!热拔插增加减少服务器硬件的时候,服务器专用cpu不会烧毁!普通cpu你们试一试!
不需要过于考虑体积和散热问题,其内部空间相对比较大,服务器机房环境比较好(恒温),高级服务器一般有良好的供电系统。
大型系统的服务器一般不是独立工作,都有热备机制,即使该服务器down机,也不影响整个系统。
前者要求稳定性和并发,后者追求单任务的快速
两个字:稳定。连续运营数年没有问题。
科创板上会节奏趋于常态化。5月30日,澜起 科技 披露了第三轮问询的回复。
时隔四天,也就是6月3日澜起 科技 再披露上会稿,即将“赶考”11日举行的科创板第3次上市发审会。
作为科创板的芯片独角兽,“重量级选手”澜起 科技 的上会颇受关注。
三轮问询过去,从一开始的49个问题到6个问题,从核心技术到信息披露,上交所审核中心的问题全面且深入。
新浪 财经 注意到,澜起 科技 的发行估值从最初的220亿元下调至120亿元。
此外,从技术层面以及公司独立性上,澜起 科技 与Intel的关系被多次问询。而最新回复显示,公司2019年业绩存在下滑风险。
预计估值下调100亿元
招股说明书显示,澜起 科技 成立于2004年,2013年9月在美股纳斯达克上市,发行价为10美元/股。
一年不到,公司就从美股私有化退市,私有化的价格为226美元/股,私有化金额总计693亿美元,折合人民币478亿元。
从美股退市后,澜起 科技 在2018年完成股份制改革,继而递交了科创板招股书。
这期间,澜起 科技 发生过多次增资扩股和股权转让。
从时间上来看,最近一次增资发生在2018年11月末,当时Intel Capital以175亿美元的价格认购10168万股新增股份,SVIC No. 28 Investment以02亿美元的价格认购1130万股新增股份。
此次交易澜起 科技 整体估值为1751亿美元,折合人民币1206亿元。
此时,正是澜起 科技 冲击科创板的四个月前,英特尔搭上了“突击入股”的班车。
值得关注的是,在这笔交易发生之前,澜起 科技 第二次股权转让的整体估值仅5134亿元,仅6个月公司增值率135%。
不仅如此,保荐机构还将发行预计市值定为不低于220亿元,半年时间,澜起 科技 的估值较第六次增资高出100亿元。
发审委要求澜起 科技 说明估值迅速增长的原因,以及中介机构对发行预计市值的评估依据是否充分、评估结果是否谨慎。
澜起 科技 的回复表示,5134亿元估值对应2017年扣非后净利润的市盈率倍数为1871,120亿估值对应2018年扣非后净利润的市盈率倍数为1718,两次增资的市盈率倍数基本一致。
至于估值迅速增长有两个原因,一是公司业绩增长较快,二是投资者认可公司业务价值及未来业绩增长。
而220亿的发行预计市值,保荐机构分析师参考了同行业上市公司汇顶 科技 和兆易创新的平均市盈率7818和平均市销率1253。
按照这两种估值方法,计算出澜起 科技 的估值分别为57609亿元、和220亿元。
并且表示公司还未上市的增资与股权转让价格与上市后发行估值不具备可比性,发行预计市值理论上也不能低于最近一次增资价格。
但这一说法显然没有说服上交所审核中心。
其在第二次问询中问道,Intel投后估值1751亿美元(120亿人民币),发行人预计市值不低于2201亿人民币,Intel入股时是否已经有明确的上市预期,入股价格是否公允。
这一次,澜起 科技 否认短期内存在上市预期,不得不搬出上市公司收购同行业公司的估值水平,以及Intel同期投资同行业其他项目的估值水平,市盈率在1587-1857倍,不存在差异,具有公允性。
Intel投后的估值120亿算是解释完了。
至于220亿元的发行预计市值,在澜起 科技 的第二次回复中,保荐机构将发行预计市值更新为不低于120亿元。
对此有投行人士表示,第一次预计估值给了一个很高的估值,但是理由解释的很牵强。
鉴于之前科创板保代擅自修改问询问题的案例在先,第二次选择不低于最后一轮投资的投后估值这种最安全的说法,是为了申报通过打的安全牌。
与Intel的关系被多次询问
就在Intel入股的同一年,澜起 科技 对Intel的采购突增。即是客户又是供应商,同时还是股东的情况下,Intel与澜起 科技 的复杂关系被科创板发审委三次问询,这既包括技术层面也包括公司独立性。
2018年,澜起 科技 对Intel的销售额为560万元,采购额突增2709万元。这与澜起 科技 的另一项产品津逮服务器CPU有关。
报告期内,澜起 科技 与清华大学、Intel合作研发津逮®服务器CPU,该产品需要向Intel采购通用CPU内核芯片,成本占比在90%左右。
目前尚在研发阶段,销售收入主要为工程样品,占比不高。此次23亿募资项目,将有75亿元用于该产品的研发。
基于这个背景,澜起 科技 与Intel产生了采购的关联交易,未来计划提高津逮服务器CPU以及混合安全内存模组的销售规模。
这就存在两个方面的问题。
一方面,研发成果归属及技术依赖性问题。澜起 科技 负责整体模块及部分芯片的设计,清华大学提供可重构计算处理器(RCP)的算法,Intel提供其通用CPU内核芯片,并由澜起 科技 委托第三方进行芯片制造、封装和测试。
研发成果津逮®服务器CPU品牌及产品产权归澜起 科技 所有。至于知识产权的所有权,则按照共同开发的三方分配,自主开发则单独享有所有权。
另一方面,Intel通用CPU内核芯片在津逮®服务器CPU成本中的占比较高。
随着津逮®服务器CPU及其平台技术升级项目实施,关联交易的规模将扩大,澜起 科技 对Intel是否会形成重大依赖。
并且,Intel作为澜起 科技 的股东,上述募投项目实施后,预计新增与Intel关联交易的规模,交易定价是否公允?是否对澜起 科技 的独立性产生不利影响?
2018年Intel增资入股时,双方就公司治理、股份转让限制、优先购买权、共同出售权及其他方面的权利进行了约定。Intel享有包括重大事项一票否决权及回购权等权利。具体协议如下:
i. 财务信息知情权(合理时间内获取年报和季报的权利);
ii. 指派董事会观察员事项(有权委派一名董事会观察员列席董事会,但无任何表决权);
iii. 其他保护性事项(享有否决权),即未经Intel Capital同意,公司不得从事如下行为:
a. 导致公司解散或清算的行为或为债权人利益提起破产、破产管理等程序;
b.导致公司控制权变更的行为或全部或实质资产的出售、抵押或转让的行为;
c. 根据公司章程需要经公司董事会同意的关联交易行为;
d.对公司经营范围进行变更且该变更将对公司履行商业协议产生不利影响。
澜起 科技 将上述称之为保护投资人自身的投资利益的“消极保护性”权利,并强调这不属于对赌协议。
双方约定,如果2021年5月公司还未完成上市,上述股东有权要求公司按其投资成本回购股份。
若成功上市,Intel享受的相关保护性权利也随之终止。
从这个角度看,Intel财务投资人的角色似乎很明确。但在报告期内,Intel定期向澜起 科技 支付研发支持费用,合计金额约为210万美元。
双方的交易往来,澜起 科技 需要在回复中详细解释。
下游客户出货量下滑
除此之外,根据澜起 科技 最新回复,公司2019年面临下游客户出货量下滑的风险。
一季度财报显示,澜起 科技 下游客户出货收入均出现了20%以上的下滑:三星电子下滑3381%,海力士下滑2224%,美光 科技 下滑2787%。
三星电子表示受主要客户去库存影响需求疲软,2019年一季度存储类产品收入同比下滑;
海力士的DRAM产品其中单价下滑为主要原因;
美光 科技 主要受移动通信市场季节性需求疲软和市场环境影响,造成DRAM产品单价下跌和销量的小幅下滑。
这与相关行业研究报告的观点一致:从2018年下半年开始DRAM价格进入下行周期,预计DRAM市场在2019年消化库存,并在2020年前后随着5G、AI、大数据的应用推动需求增长。
而在DRAM市场,三星电子、海力士、美光 科技 行业前三名合计市场占有率超过90%。
根据首轮问询回复,这三家也是澜起 科技 的前五大客户。报告期内,澜起 科技 对前五大客户的销售占比分别为70%、84%、90%。
集中度较高的下游客户出货量下滑,对澜起 科技 或产生不利影响。
尽管澜起 科技 表示,公司2019年一季度收入及出货量均同比增长,截至目前未对公司造成重大不利影响。但产业链的传导或存滞后性。
如果DRAM行业景气度进一步下滑或回升不及预期,将有可能导致主要产品内存接口芯片的市场规模同步出现下滑或增速放缓,可能对公司未来业绩造成一定不利影响。
(文/公司观察)
往期回顾
版权说明:如转载涉及版权等问题,请发送消息至公众号后台与我们联系,我们将在第一时间处理!
投稿及商务合作请联系:
wujian1@staffsinacomcn
公元2000 年以后,CPU的结构发生以下变化:大体结构还是原来的设计思路。
X86时代的CPU
CPU的溯源可以一直去到1971年。在那一年,当时还处在发展阶段的INTEL公司推出了世界上第一台微处理器4004。这不但是第一个用于计算器的4位微处理器,也是第一款个人有能力买得起的电脑处理器!4004含有2300个晶体管,功能相当有限,而且速度还很慢,被当时的蓝色巨人IBM以及大部分商业用户不屑一顾,但是它毕竟是划时代的产品,从此以后,INTEL便与微处理器结下了不解之缘。可以这么说,CPU的历史发展历程其实也就是INTEL公司X86系列CPU的发展历程,我们就通过它来展开我们的“CPU历史之旅”。
1978 年,Intel公司再次领导潮流,首次生产出16位的微处理器,并命名为i8086,同时还生产出与之相配合的数学协处理器i8087,这两种芯片使用相互兼容的指令集,但在i8087指令集中增加了一些专门用于对数、指数和三角函数等数学计算指令。由于这些指令集应用于i8086和i8087,所以人们也这些指令集统一称之为X86指令集。虽然以后Intel又陆续生产出第二代、第三代等更先进和更快的新型CPU,但都仍然兼容原来的X86指令,而且 Intel在后续CPU的命名上沿用了原先的X86序列,直到后来因商标注册问题,才放弃了继续用阿拉伯数字命名。至于在后来发展壮大的其他公司,例如 AMD和Cyrix等,在486以前(包括486)的CPU都是按Intel的命名方式为自己的X86系列CPU命名,但到了586时代,市场竞争越来越厉害了,由于商标注册问题,它们已经无法继续使用与Intel的X86系列相同或相似的命名,只好另外为自己的586、686兼容CPU命名了。
1979 年,INTEL公司推出了8088芯片,它仍旧是属于16位微处理器,内含29000个晶体管,时钟频率为477MHz,地址总线为20位,可使用 1MB内存。8088内部数据总线都是16位,外部数据总线是8位,而它的兄弟8086是16位。1981年8088芯片首次用于IBM PC机中,开创了全新的微机时代。也正是从8088开始,PC机(个人电脑)的概念开始在全世界范围内发展起来。
1982年,许多年轻的读者尚在襁褓之中的时候,INTE已经推出了划时代的最新产品枣80286芯片,该芯片比8006和8088都有了飞跃的发展,虽然它仍旧是16位结构,但是在CPU的内部含有134万个晶体管,时钟频率由最初的6MHz逐步提高到20MHz。其内部和外部数据总线皆为16位,地址总线24位,可寻址16MB内存。从 80286开始,CPU的工作方式也演变出两种来:实模式和保护模式。
Intel 80286处理器
1985年INTEL推出了80386芯片,它是80X86系列中的第一种32位微处理器,而且制造工艺也有了很大的进步,与80286相比,80386内部内含275万个晶体管,时钟频率为125MHz,后提高到20MHz,25MHz,33MHz。80386的内部和外部数据总线都是32位,地址总线也是32位,可寻址高达4GB内存。它除具有实模式和保护模式外,还增加了一种叫虚拟86的工作方式,可以通过同时模拟多个8086处理器来提供多任务能力。除了标准的 80386芯片,也就是我们以前经常说的80386DX外,出于不同的市场和应用考虑,INTEL又陆续推出了一些其它类型的80386芯片:80386SX、80386SL、80386DL等。1988年推出的80386SX是市场定位在80286和80386DX之间的一种芯片,其与 80386DX的不同在于外部数据总线和地址总线皆与80286相同,分别是16位和24位(即寻址能力为16MB)。
1990年推出的80386 SL和80386 DL都是低功耗、节能型芯片,主要用于便携机和节能型台式机。80386 SL与80。
2000年——2001年是P3 当道的时代,而那是的AMDK6也已经抬头,K7正在酝酿之中。这个时期的CPU结构上增大并且改进了寄存器,比如1级缓存和2级缓存。
计算器采用了流水线。
2002年,AMD的雷鸟轻松突破1G主频,INTEL紧随其后靠工艺进步增加流水线和寄存器推出了P4,把AMD打压在下。之后AMD推出了K7系列的毒龙、速龙、巴顿、闪龙系列,由于构架个原因曾经胜出INTEL的P4,性能普不低于P4 和赛扬D。
之后就是AMD带头搞的K8 64位处理器了,并且把内存控制器集成到CPU中。
再往下就是双核了。这个没有什么好讲的。
服务器cpu排行榜如下:Intel Xeon E5-2600 v4、Intel Xeon E5-2678 v3、Intel Xeon E3-1231 v3、Intel Xeon E5645、Intel Xeon E5-2680 v4、Intel Xeon E5-2680 v2、Intel Xeon E5-2670 v2、Intel Xeon E-2324G、Intel Xeon E5-2670、Intel Xeon E3-1225 v2。
1、Intel Xeon E5-2600 v4:采用64位CPU架构,核心数量二十二核心,工作功率145W。
2、Intel Xeon E5-2678 v3:Xeon E5 v3系列,制作工艺22纳米,核心数量十二核心,线程数量二十四线程,CPU主频25GHz,L3缓存30MB,总线规格QPI 5GT/s,热设计功耗(TDP) 120W。
3、Intel Xeon E3-1231 v3:Xeon E3-1200 v3系列,制作工艺22纳米,核心数量四核心。
4、Intel Xeon E5645:采用Westmere-EP架构,为32nm工艺,主频24GHz,12MB缓存,QPI总线,586GT/s,支持睿频加速。
5、Intel Xeon E5-2680 v4: 采用64位CPU架构,核心数量十四核心,工作功率120W。
6、Intel Xeon E5-2680 v2:Xeon E5-2600 v2系列,制作工艺22纳米,核心数量十核心,总线频率8GT/s。
7、Intel Xeon E5-2670 v2:Xeon E5-2600 v2系列,制作工艺22纳米,核心数量十核心,总线频率8GT/s。
8、Intel Xeon E-2324G:制作工艺14纳米,核心代号Rocket Lake,核心数量四核心,线程数量四线程。
9、Intel Xeon E5-2670:主频2600MHz,八核心,16线程,20MBL3缓存,制作工艺32纳米,工作功率115W,CPU架构64位。
10、Intel Xeon E3-1225 v2:主频3200MHz,最大Turbo频率3600MHz,四核心,4线程, 8MBL3缓存,制作工艺22纳米,工作功率77W,CPU内核Ivy Bridge,CPU架构64位。
1、控制器
CPU的控制器包括用电信号指挥整个电脑系统的执行及储存程序命令的电子线路。像一个管弦乐队的指挥者,控制器不执行程序命令,而是指挥系统的其它部分做这些工作。控制器必须与算术逻辑单元和内存都有紧密的合作与联系。
2、指令译码器
指令译码器为CPU翻译指令,然后这些指令才能够被执行。
3、程序计数器
程序计数器是一个特别的门插销。当有新的指令送入PC时,PC会被加1。因此它按照顺序通过CPU必须执行的任务。然而,也有一些指令能够让CPU不按顺序执行指令,而是跳跃到另-些指令。
4、算术逻辑单元
算术逻辑单元包含执行所有算术/逻辑 *** 作的电子线路。算术逻辑单元能够执行四种算术 *** 作(数学计算):加、减、乘、除
算术逻辑单元也能执行逻辑 *** 作。一个逻辑 *** 作通常是一个 对照。它能够对比数字、字母或特殊文字。电脑就可以根据对比结果采取行动。
5、寄存器
寄存器是位于CPU内部的特殊存储单元。存储在这里的数据的存取比存储在其它内存单元(如: RAM、ROM)的数据的存取要快。
CPU内不同部分的寄存器有不同的功能。在控制器中,寄存器用来存储电脑当前的指令和 *** 作数。同时,ALU中的寄存器被叫做累加器,用来储存算术或逻辑 *** 作的结果。
参考资料来源:百度百科-CPU
从系统架构来看,目前的商用服务器大体可以分为三类,即对称多处理器结构(SMP:SymmetricMulti-Processor),非一致存储访问结构(NUMA:Non-UniformMemoryAccess),以及海量并行处理结构(MPP:MassiveParallelProcessing)。
一、SMP(SymmetricMulti-Processor)
所谓对称多处理器结构,是指服务器中多个CPU对称工作,无主次或从属关系。各CPU共享相同的物理内存,每个CPU访问内存中的任何地址所需时间是相同的,因此SMP也被称为一致存储器访问结构(UMA:UniformMemoryAccess)。对SMP服务器进行扩展的方式包括增加内存、使用更快的CPU、增加CPU、扩充I/O(槽口数与总线数)以及添加更多的外部设备(通常是磁盘存储)。
SMP服务器的主要特征是共享,系统中所有资源(CPU、内存、I/O等)都是共享的。也正是由于这种特征,导致了SMP服务器的主要问题,那就是它的扩展能力非常有限。对于SMP服务器而言,每一个共享的环节都可能造成SMP服务器扩展时的瓶颈,而最受限制的则是内存。由于每个CPU必须通过相同的内存总线访问相同的内存资源,因此随着CPU数量的增加,内存访问冲突将迅速增加,最终会造成CPU资源的浪费,使CPU性能的有效性大大降低。实验证明,SMP服务器CPU利用率最好的情况是2至4个CPU。
二、NUMA(Non-UniformMemoryAccess)
由于SMP在扩展能力上的限制,人们开始探究如何进行有效地扩展从而构建大型系统的技术,NUMA就是这种努力下的结果之一。利用NUMA技术,可以把几十个CPU(甚至上百个CPU)组合在一个服务器内。
NUMA服务器的基本特征是具有多个CPU模块,每个CPU模块由多个CPU(如4个)组成,并且具有独立的本地内存、I/O槽口等。由于其节点之间可以通过互联模块(如称为CrossbarSwitch)进行连接和信息交互,因此每个CPU可以访问整个系统的内存(这是NUMA系统与MPP系统的重要差别)。显然,访问本地内存的速度将远远高于访问远地内存(系统内其它节点的内存)的速度,这也是非一致存储访问NUMA的由来。由于这个特点,为了更好地发挥系统性能,开发应用程序时需要尽量减少不同CPU模块之间的信息交互。利用NUMA技术,可以较好地解决原来SMP系统的扩展问题,在一个物理服务器内可以支持上百个CPU。比较典型的NUMA服务器的例子包括HP的Superdome、SUN15K、IBMp690等。
但NUMA技术同样有一定缺陷,由于访问远地内存的延时远远超过本地内存,因此当CPU数量增加时,系统性能无法线性增加。如HP公司发布Superdome服务器时,曾公布了它与HP其它UNIX服务器的相对性能值,结果发现,64路CPU的Superdome(NUMA结构)的相对性能值是20,而8路N4000(共享的SMP结构)的相对性能值是63。从这个结果可以看到,8倍数量的CPU换来的只是3倍性能的提升。
三、MPP(MassiveParallelProcessing)
和NUMA不同,MPP提供了另外一种进行系统扩展的方式,它由多个SMP服务器通过一定的节点互联网络进行连接,协同工作,完成相同的任务,从用户的角度来看是一个服务器系统。其基本特征是由多个SMP服务器(每个SMP服务器称节点)通过节点互联网络连接而成,每个节点只访问自己的本地资源(内存、存储等),是一种完全无共享(ShareNothing)结构,因而扩展能力最好,理论上其扩展无限制,目前的技术可实现512个节点互联,数千个CPU。目前业界对节点互联网络暂无标准,如NCR的Bynet,IBM的SPSwitch,它们都采用了不同的内部实现机制。但节点互联网仅供MPP服务器内部使用,对用户而言是透明的。
在MPP系统中,每个SMP节点也可以运行自己的 *** 作系统、数据库等。但和NUMA不同的是,它不存在异地内存访问的问题。换言之,每个节点内的CPU不能访问另一个节点的内存。节点之间的信息交互是通过节点互联网络实现的,这个过程一般称为数据重分配(DataRedistribution)。
但是MPP服务器需要一种复杂的机制来调度和平衡各个节点的负载和并行处理过程。目前一些基于MPP技术的服务器往往通过系统级软件(如数据库)来屏蔽这种复杂性。举例来说,NCR的Teradata就是基于MPP技术的一个关系数据库软件,基于此数据库来开发应用时,不管后台服务器由多少个节点组成,开发人员所面对的都是同一个数据库系统,而不需要考虑如何调度其中某几个节点的负载。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)