cpu为什么晶体管越多,性能越强?

cpu为什么晶体管越多,性能越强?,第1张

CPU工作原理揭秘 \x0d\x0a众所周知,CPU是电脑的“心脏”,是整个微机系统的核心,因此,它也往往成了各种档次微机的代名词,如昔日的286、386、486,奔腾、PII、K6到今天的PIII、P4、K7等。回顾CPU发展历史,CPU在制造技术上已经获得了极大的提高,主要表现在集成的电子元件越来越多,从开始集成几千个晶体管,到现在的几百万、几千万个晶体管,这么多晶体管,它们是如果处理数据的呢? \x0d\x0a\x0d\x0a◆ CPU的原始工作模式在了解CPU工作原理之前,我们先简单谈谈CPU是如何生产出来的。CPU是在特别纯净的硅材料上制造的。一个CPU芯片包含上百万个精巧的晶体管。人们在一块指甲盖大小的硅片上,用化学的方法蚀刻或光刻出晶体管。因此,从这个意义上说,CPU正是由晶体管组合而成的。简单而言,晶体管就是微型电子电子开关,它们是构建CPU的基石,你可以把一个晶体管当作一个电灯开关,它们有个 *** 作位,分别代表两种状态:ON(开)和OFF(关)。这一开一关就相等于晶体管的连通与断开,而这两种状态正好与二进制中的基础状态“0”和“1”对应!这样,计算机就具备了处理信息的能力。但你不要以为,只有简单的“0”和“1”两种状态的晶体管的原理很简单,其实它们的发展是经过科学家们多年的辛苦研究得来的。在晶体管之前,计算机依靠速度缓慢、低效率的真空电子管和机械开关来处理信息。后来,科技人员把两个晶体放置到一个硅晶体中,这样便创作出第一个集成电路,再后来才有了微处理器。 \x0d\x0a\x0d\x0a看到这里,你一定想知道,晶体管是如何利用“0”和“1”这两种电子信号来执行指令和处理数据的呢?其实,所有电子设备都有自己的电路和开关,电子在电路中流动或断开,完全由开关来控制,如果你将开关设置微OFF,电子将停止流动,如果你再将其设置为ON,电子又会继续流动。晶体管的这种ON与OFF的切换只由电子信号控制,我们可以将晶体管称之为二进制设备。这样,晶体管的ON状态用“1”来表示,而OFF状态则用“0”来表示,就可以组成最简单的二进制数。众多晶体管产生的多个“1”与“0”的特殊次序和模式能代表不同的情况,将其定义为字母、数字、颜色和图形。举个例子,十进制位中的1在二进制模式时也是“1”,2在二进制位模式时是“10”,3是“11”,4是“100”,5是“101”,6是“110”等等,依此类推,这就组成了计算机工作采用的二进制语言和数据。成组的晶体管联合起来可以存储数值,也可以进行逻辑运算和数字运算。加上石英时钟的控制,晶体管组成就像一部复杂的机器那样同步地执行它们的功能。 ◆ CPU的内部结构现在我们已经大概知道CPU是负责些什么事情,但是具体由哪些部件负责处理数据和执行程序呢? 1.算术逻辑单元ALU(Arithmetic Logic Unit) ALU是运算器的核心。它是以全加器为基础,辅之以移位寄存器及相应控制逻辑组合而成的电路,在控制信号的作用下可完成加、减、乘、除四则运算和各种逻辑运算。就像刚才提到的,这里就相当于工厂中的生产线,负责运算数据。 2.寄存器组RS(Register Set或Registers) RS实质上是CPU中暂时存放数据的地方,里面保存着那些等待处理的数据,或已经处理过的数据,CPU访问寄存器所用的时间要比访问内存的时间短。采用寄存器,可以减少CPU访问内存的次数,从而提高了CPU的工作速度。但因为受到芯片面积和集成度所限,寄存器组的容量不可能很大。寄存器组可分为专用寄存器和通用寄存器。专用寄存器的作用是固定的,分别寄存相应的数据。而通用寄存器用途广泛并可由程序员规定其用途。通用寄存器的数目因微处理器而异。 \x0d\x0a\x0d\x0a3.控制单元(Control Unit)正如工厂的物流分配部门,控制单元是整个CPU的指挥控制中心;由指令寄存器IR(Instruction Register)、指令译码器ID(Instruction Decoder)和 *** 作控制器OC(Operation Controller)三个部件组成,对协调整个电脑有序工作极为重要。它根据用户预先编好的程序,依次从寄存器中取出各条指令,放在指令寄存器IR中,通过指令译码(分析)确定应该进行什么 *** 作,然后通过 *** 作控制器OC,按确定的时序,向相应的部件发出微 *** 作控制信号。 *** 作控制器OC中主要包括节拍脉冲发生器、控制矩阵、时钟脉冲发生器、复位电路和启停电路等控制逻辑 \x0d\x0a\x0d\x0a4.总线(Bus)就像工厂中各部位之间的联系渠道,总线实际上是一组导线,是各种公共信号线的集合,用于作为电脑中所有各组成部分传输信息共同使用的“公路”。直接和CPU相连的总线可称为局部总线。其中包括:数据总线DB(Data Bus)、地址总线AB(Address Bus)、控制总线CB(Control Bus)。其中,数据总线用来传输数据信息;地址总线用于传送CPU发出的地址信息;控制总线用来传送控制信号、时序信号和状态信息等。 ◆ CPU的工作流程由晶体管组成的CPU是作为处理数据和执行程序的核心,其英文全称是:Central Processing Unit,即中央处理器。首先,CPU的内部结构可以分为控制单元,逻辑运算单元和存储单元(包括内部总线及缓冲器)三大部分。CPU的工作原理就像一个工厂对产品的加工过程:进入工厂的原料(程序指令),经过物资分配部门(控制单元)的调度分配,被送往生产线(逻辑运算单元),生产出成品(处理后的数据)后,再存储在仓库(存储单元)中,最后等着拿到市场上去卖(交由应用程序使用)。在这个过程中,我们注意到从控制单元开始,CPU就开始了正式的工作,中间的过程是通过逻辑运算单元来进行运算处理,交到存储单元代表工作的结束。 ◆ 数据与指令在CPU中的运行刚才已经为大家介绍了CPU的部件及基本原理情况,现在,我们来看看数据是怎样在CPU中运行的。我们知道,数据从输入设备流经内存,等待CPU的处理,这些将要处理的信息是按字节存储的,也就是以8位二进制数或8比特为1个单元存储,这些信息可以是数据或指令。数据可以是二进制表示的字符、数字或颜色等等。而指令告诉CPU对数据执行哪些 *** 作,比如完成加法、减法或移位运算。我们假设在内存中的数据是最简单的原始数据。首先,指令指针(Instruction Pointer)会通知CPU,将要执行的指令放置在内存中的存储位置。因为内存中的每个存储单元都有编号(称为地址),可以根据这些地址把数据取出,通过地址总线送到控制单元中,指令译码器从指令寄存器IR中拿来指令,翻译成CPU可以执行的形式,然后决定完成该指令需要哪些必要的 *** 作,它将告诉算术逻辑单元(ALU)什么时候计算,告诉指令读取器什么时候获取数值,告诉指令译码器什么时候翻译指令等等。假如数据被送往算术逻辑单元,数据将会执行指令中规定的算术运算和其他各种运算。当数据处理完毕后,将回到寄存器中,通过不同的指令将数据继续运行或者通过DB总线送到数据缓存器中。基本上,CPU就是这样去执行读出数据、处理数据和往内存写数据3项基本工作。但在通常情况下,一条指令可以包含按明确顺序执行的许多 *** 作,CPU的工作就是执行这些指令,完成一条指后,CPU的控制单元又将告诉指令读取器从内存中读取下一条指令来执行。这个过程不断快速地重复,快速地执行一条又一条指令,产生您在显示器上所看到的结果。我们很容易想到,在处理这么多指令和数据的同时,由于数据转移时差和CPU处理时差,肯定会出现混乱处理的情况。为了保证每个 *** 作准时发生,CPU需要一个时钟,时钟控制着CPU所执行的每一个动作。时钟就像一个节拍器,它不停地发出脉冲,决定CPU的步调和处理时间,这就是我们所熟悉的CPU的标称速度,也称为主频。主频数值越高,表明CPU的工作速度越快。 ◆ 如何提高CPU工作效率既然CPU的主要工作是执行指令和处理数据,那么工作效率将成为CPU的最主要内容,因此,各CPU厂商也尽力使用CPU处理数据的速度更快。根据CPU的内部运算结构,一些制造厂商在CPU内增加了另一个算术逻辑单元(ALU),或者是另外再设置一个处理非常大和非常小的数据浮点运算单元(Floating Point Unit,FPU),这样就大大加快了数据运算的速度。而在执行效率方面,一些厂商通过流水线方式或以几乎并行工作的方式执行指令的方法来提高指令的执行速度。刚才我们提到,指令的执行需要许多独立的 *** 作,诸如取指令和译码等。最初CPU在执行下一条指令之前必须全部执行完上一条指令,而现在则由分布式的电路各自执行 *** 作。也就是说,当这部分的电路完成了一件工作后,第二件工作立即占据了该电路,这样就大大增加了执行方面的效率。另外,为了让指令与指令之间的连接更加准确,现在的CPU通常会采用多种预测方式来控制指令更高效率地执行。

CPU性能无非就两种。一种是频率。一种是晶体管数量。

而现在频率难提升。所以只能从晶体管数量上想办法了。所以就出现了双核多核。单核心因为制造工艺问题只能在一定功耗下集成一定数量的晶体管要是再多那么成品率就会降低。

才生产多个单核然后再集成在一起,而晶体管数量到一定程度必然功耗也到一定程度。所以为了控制功耗又能保证晶体管数量所以从制造工艺上改进了。

工艺越先进可以在一定功耗下集成的晶体管越多成品率越高。晶体管大小直接影响功耗。做的越小功耗越低。但是功耗都是在一定限制范围内的。

扩展资料:

超频的意思其实主要就是让CPU在一个说明书上没有记载或没有支持的频率下工作,通常数值比原来还高。超频的诱因在于可以用较少的花费,增进系统的效能。

cpu处理速度主要看晶体管数量,晶体管的工艺提升了,数量就多了,速度当然快了,比如以前是180纳米工艺,如果集成1亿个,现在是32纳米工艺,就可以集成6亿个,速度当然就比以前的快至少6倍了。

简单解释吧,不详细了:晶体管就可以看成一个小开关,有通断两种状态对不对?通是1,断是0,那么一个晶体管的一次开,或者一次关,就提供一个2位的数据:0或者1.用无数个0或者1就可以代表所有的数据。这也就是为什么电子时代信息被称为数字化。其实就是把所有的信息用数字来表示。而数字,可以用电脑来处理。电脑是没法直接处理人类的信息的。

那么一个晶体管一次只能表示一个0,或者1。那么一大堆晶体管同时工作呢?

大概就是这么个意思,不是想很钻研这东西,只是想了解下的话,就这样理解好了。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/tougao/6049091.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-03-12
下一篇 2023-03-12

发表评论

登录后才能评论

评论列表(0条)

保存