首先需要解释CPU和GPU这两个缩写分别代表什么。CPU即中央处理器,GPU即图形处理器。其次,要解释两者的区别,要先明白两者的相同之处:两者都有总线和外界联系,有自己的缓存体系,以及数字和逻辑运算单元。一句话,两者都为了完成计算任务而设计。两者的区别在于存在于片内的缓存体系和数字逻辑运算单元的结构差异:CPU虽然有多核,但总数没有超过两位数,每个核都有足够大的缓存和足够多的数字和逻辑运算单元,并辅助有很多加速分支判断甚至更复杂的逻辑判断的硬件;GPU的核数远超CPU,被称为众核(NVIDIA Fermi有512个核)。每个核拥有的缓存大小相对小,数字逻辑运算单元也少而简单(GPU初始时在浮点计算上一直弱于CPU)。从结果上导致CPU擅长处理具有复杂计算步骤和复杂数据依赖的计算任务,如分布式计算,数据压缩,人工智能,物理模拟,以及其他很多很多计算任务等。GPU由于历史原因,是为了视频游戏而产生的(至今其主要驱动力还是不断增长的视频游戏市场),在三维游戏中常常出现的一类 *** 作是对海量数据进行相同的 *** 作,如:对每一个顶点进行同样的坐标变换,对每一个顶点按照同样的光照模型计算颜色值。GPU的众核架构非常适合把同样的指令流并行发送到众核上,采用不同的输入数据执行。在2003-2004年左右,图形学之外的领域专家开始注意到GPU与众不同的计算能力,开始尝试把GPU用于通用计算(即GPGPU)。之后NVIDIA发布了CUDA,AMD和Apple等公司也发布了OpenCL,GPU开始在通用计算领域得到广泛应用,包括:数值分析,海量数据处理(排序,Map-Reduce等),金融分析等等。简而言之,当程序员为CPU编写程序时,他们倾向于利用复杂的逻辑结构优化算法从而减少计算任务的运行时间,即Latency。当程序员为GPU编写程序时,则利用其处理海量数据的优势,通过提高总的数据吞吐量(Throughput)来掩盖Lantency。目前,CPU和GPU的区别正在逐渐缩小,因为GPU也在处理不规则任务和线程间通信方面有了长足的进步。另外,功耗问题对于GPU比CPU更严重。
CPU的优点是可以处理几乎所有类型运算,也就是通常所说的通用计算,但对于其中的某个单一计算类型(比如浮点运算)速度很一般。GPU的优点就是专业负责图形渲染(主要依赖浮点运算),配备大量计算核心(GPU的核心数量通常很多,你随便看一款显卡的参数就能知道,而CPU目前的主流才是四核心,所以显卡的发热量通常比CPU更大,中端以上的显卡很多都配备豪华散热器,3风扇加七八根热管。)浮点运算能力是CPU的很多倍,这其实也很好理解,GPU的核心数量很多、而且专门负责浮点运算。
未来CPU和GPU融合是趋势,目前英特尔和AMD也都把GPU直接集成在了CPU里面,这样CPU处理完数据可以直接交给GPU,而不需要经过蓝桥和北桥芯片,而且当GPU空闲(没有大量图形渲染)时还可以分担CPU的一部人工作(主要是浮点运算)。希望能帮到你,望及时采纳。CPU和GPU都是具有运算能力的芯片,CPU处理指令运算(执行)为重和数值运算,GPU则没有那么强大图形类数值计算为核心。在不同类型的运算方面的速度也就决定了它们的能力,它们各有所长 因此CPU和GPU的分工可以大致这样分 CPU主要是擅长 *** 作系统,系统软件,应用程序,通用计算,系统控制等等;游戏中人工智能,物理模拟等等;3D建模-光线追踪渲染;虚拟化技术——抽象硬件,同时运行多个 *** 作系统或者一个 *** 作系统的多个副本等等。 GPU擅长图形类矩阵运算,非图形类并行数值计算,高端3D游戏。 综上所述,在一台均衡计算的计算机系统中,CPU和GPU还是各司其职,除了图形运算,GPU将来可能主要集中在高效率低成本的高性能并行数值计算,帮助CPU分担这种类型的计算,提高系统这方面的性能。而当前的典型应用还是高端3D游戏,一个高效的GPU配合一个高效的CPU,3D游戏的整体效率才能得到保证。前一段时间由于CPU和GPU都越权了,所以网上才会有CPU和GPU那个重要之说,现在AMD公司已经制造出集成了CPU和GPU的芯片,其性能更佳强劲,现在intel也在研究将二者集成在一起啊。后面好像扯远了啊!!o(∩_∩)o作者 | 赵广立
近年来摩尔定律“失速”,使得中央处理器(CPU)的性能增长边际成本急剧上升。有研究数据表明,现在CPU的性能年化增长率(面积归一化之后)仅有3%左右。然而,人们对计算的需求依然爆发性增长。
在此背景下,包括人工智能(AI)芯片在内的专用计算芯片陆续登上 历史 舞台,绽放光芒。眼下,以数据为中心的专用处理器“DPU”正成为专用计算芯片的“新贵”。美国芯片巨头英伟达公司甚至将其定位为数据中心继CPU和图形处理器(GPU)之后的“第三颗主力芯片”,掀起了行业热潮。
和CPU、GPU“三足鼎立”,DPU真有如此大的潜力吗?它的应用场景有哪些?我国能抓住DPU发展机遇吗?近日,由中国科学院计算技术研究所(以下简称中科院计算所)主编,中科驭数(北京) 科技 有限公司、中国计算机学会集成电路设计专业组、计算机体系结构国家重点实验室联合编写的行业首部《专用数据处理器(DPU)技术白皮书》(以下简称《DPU技术白皮书》)发布。结合上述问题,《中国科学报》联系采访了主要编写人员一探究竟。
“DPU最直接的作用是作为CPU的卸载(offload)引擎,其效果是给CPU‘减负’。”《DPU技术白皮书》主编、中科院计算所研究员鄢贵海告诉《中国科学报》,作一形象比喻,DPU提供了数据中心一把“杀鸡”的工具,节省的是CPU这把“牛刀”,以释放CPU算力,留给更需要它的业务负载。
接管CPU的网络协议处理任务,就是一个很好的例子。鄢贵海说,比如在数据中心仅线速处理10G的网络,大概就需要一个8核高端CPU一半的的算力,而如果是40G、100G甚至更高速的网络,性能开销更大。
云计算巨头亚马逊云服务(AWS)形象地称之为“数据中心税”——还未运行业务程序,接入网络数据就要占去许多计算资源。
“DPU诞生的使命就是承载网络虚拟化、硬件资源池化等基础设施层服务,以释放CPU的算力到上层应用。”《DPU技术白皮书》编委会成员、中科驭数高级副总裁张宇解释说,将“CPU处理效率低下、GPU处理不了”的负载卸载到专用的DPU,就能实现对“数据中心税”的抵消,从而有助于提升整个计算系统的效率、降低整体系统的总体拥有成本。
张宇介绍称,DPU主要处理网络数据和输入输出(IO)数据,并提供带宽压缩、安全加密、网络功能虚拟化等功能。“这些可以说是离我们普通用户每天感知到的各种应用最远的功能了。而这些基础功能是实现日常应用更高效、更安全、更实时的保障。”
业界对DPU中的“D”有三种说法,因此DPU就有三个中文名。
一种是“Data”,DPU被称为“数据处理器”;一种是“Datacenter”,DPU译作“数据中心处理器”;一种是“Data-centric”,相应的,DPU可叫作“以数据为中心的处理器”。
“以上三种关于DPU的说法,从不同角度反映DPU的特征,都有一定的可取之处,我们认为可以作为不同的三个维度来理解DPU的内涵。”李晓维说。
“随着‘软件硬件化’成为常态,异构计算的潜能将因各种DPU的普及而彻底发挥出来。”《DPU技术白皮书》编委会成员、中科驭数联合创始人兼CTO卢文岩认为,新一代的DPU不仅可以作为运算的加速引擎,还具备“控制平面”(即追求数据处理功能的覆盖面)的功能,能更高效地完成网络虚拟化、IO虚拟化、存储虚拟化等任务,彻底将CPU的算力释放给应用程序。
“可以说,DPU的出现将让各行各业的业务层数字化应用更全面、更流畅、更绿色。”卢文岩说。
从市场规模角度来看,根据Fungible公司和英伟达公司的预测,用于数据中心的DPU量级将达到和数据中心服务器等量的级别。
“服务器每年新增大约千万量级,一台服务器可能没有GPU,但一定会有一颗或者多颗DPU,好比每台服务器都必须配网卡一样。”鄢贵海说,服务器每年新增大约1500万台,每颗DPU以1万元计算,这将是千亿量级的市场规模。
在这个千亿量级市场中,国际传统芯片巨头如英伟达、英特尔、Marwell、博通等厂商,都在积极布局DPU产品研发。
这些芯片巨头的布局并不意外,他们或有智能网卡研发基础(如博通)继续延伸技术触角,或通过并购专用加速芯片公司(如英伟达、英特尔)补充其在DPU领域的技术能力。相比它们,更值得一提的是,亚马逊旗下的AWS和阿里云两大云计算巨头,早已注意到数据中心开销问题,并已有了良好实践。
据《DPU技术白皮书》显示,2013年,AWS研发了Nitro产品,将为虚拟机提供远程资源、加密解密、故障跟踪、安全策略等服务程序的资源开销,全部放到专用加速上执行,“轻量化管理程序+定制化硬件”的上场一举节省30%CPU资源。几乎在同期,阿里云也着手研发“神龙架构”(X-Dragon系统),以硬件化的MOC卡统一支持网络、IO、存储和外设的虚拟化,如今“神龙架构”已经更迭到了第4代。
“可见,DPU其实在行业内已经孕育已久,从早期的网络协议处理卸载,到后续的网络、存储、虚拟化卸载,其带来的作用非常显著,只不过在此之前DPU‘有实无名’,现在是时候迈上一个新的台阶了。”鄢贵海表示。
可喜的是,国内一些围绕DPU技术的创业公司也逐渐崭露头角。除了参与编写《DPU技术白皮书》的中科驭数之外,还有云豹智能、星云智联、芯启源、云脉芯联等新近成立的 科技 创业公司,展现出良好势头。
以中科驭数为例,这家创始团队来自中科院计算所的初创企业,在DPU理论基础、数据中心架构方面有着深刻理解,工程实现经验也因一些来自亚马逊、赛灵思、华为等核心骨干的加入,得到了很好的积累。2019年,中科驭数完成第一代DPU芯片的流片,预计将于2022年推出第二代DPU芯片“K2”。
“我们认为DPU的潜力确实是巨大的。”在鄢贵海看来,从技术发展的角度来看,DPU的出现有一定的必然性——上层应用对于算力的需求在过去5年急剧增长,使得DPU的应用场景很多,它将广泛分布在5G、云计算、大数据、数据中心和边缘计算等领域。
而从工业和信息化部今年发布的《新型数据中心发展三年行动计划(2021—2023年)》中,鄢贵海更是看到了新型算力芯片难得的 历史 发展机遇。
该计划明确提出要加快提升算力算效水平,“推动CPU、GPU等异构算力提升,逐步提高自主研发算力的部署比例”“加强专用服务器等核心技术研发”“树立基于5G和工业互联网等重点应用场景的边缘数据中心应用标杆”等要求和措施。
“虽然国内厂商在芯片产品化的环节相比国外一线厂商还有差距,但是在DPU架构的理解上是有独到的见解的,而且我国目前在数据中心这个领域,无论是市场规模、增速还是用户数量,相较于国外都有巨大的优势。”鄢贵海认为,国内厂商有望充分利用这一“应用势能”,加快发展步伐,在DPU这个赛道与国外厂商“逐鹿中原”。
不过,挑战与机遇并存。
“目前要解决DPU标准化应用,还存在一定挑战。”鄢贵海解释道,由于数据中心本身的复杂性,各大厂商一方面采用商用现货组件(即COTS)来构建系统,追求低成本,一方面又设法分层服务化,打造面向不用类型客户的标准化产品,但除此之外的所有技术实现几乎都是“八仙过海,各显神通”——如AWS有Nitro,阿里云有MOC。CPU占用率在70%左右。
gpu渲染CPU占用率在70%左右,越高的需要高性能的GPU服务器才可以完成渲染了可以试试GPUCAT的服务器,高性能,实时计算和渲染cpu占用率60%左右。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)