目前的AI技术与5G有什么关联?

目前的AI技术与5G有什么关联?,第1张

5G作为和AI并列的另一个重要领域,也多次被美国政府在内部工作会议上讨论研究。去年10月,特朗普签署了一份总统备忘录,要求商务部制定长期、全面的5G战略。而中国也不仅将5G写入《十三五规划》,还支持产业界成立IMT-2020(5G)推进组,启动了全球规模最大的5G技术研发试验。

5G和AI之所以被如此重视,频频被政府及各行业提及,是因为这两者的结合,将会产生聚变效应,衍生出许多新技术、新平台、新商业模式、新产业等,带来前所未有的创新机遇,甚至可能是一个新时代的到来。

目前的人工智能基本依赖于云计算和终端自身处理,终端将获取到的海量信息在自身进行一次加工和提炼,然后到云端的AI大脑进行统一处理。但是受制于终端的处理能力以及网络的传输能力有限,目前的人工智能速度较慢并且智力低下。如果通过5G网络将应用与云端连接,并运用边缘计算等技术,5G核心网分布式架构将完美匹配应用延伸到边缘的需求,边缘网关可以将信息直接转发到边缘应用,帮助AI将应用延伸到边缘。

5G是万物互联的基石,就像信息高速公路一样,它为海量的数据和信息的传递提供了可能性,同时,也带来了更高效的传输速率;AI是万物互联网的助推器,不仅仅是云端的大脑,也是能够完成学习和进化到的神经网络,成为人类智慧的延伸。两者相加,互相作用,AI将使能于5G,优化5G网络,推动5G落地。具备AI属性的5G网络,是自能的网络。5G同样是使能技术,改变生产方式、改变社会生活,让AI无处不在。5G作为新的基础网络设施,不单为人服务,还为物服务,为社会服务。二者作为新时代的生产力,将带来整个社会生产方式的改变和生产力的提升。

边缘计算有以下的六大特点:
第一,去中心化
边缘计算就是让网络、计算、存储、应用从“中心”向边缘分发,以就近提供智能边缘服务。
第二,非寡头化
边缘计算是互联网、移动互联网、物联网、工业互联网、电子、AI、IT、云计算、硬件设备、运营商等诸多领域的“十字入口”,一方面参与的各类厂商众多,另一方面“去中心化”在产品逻辑底层,就一定程度上通向了“非寡头化”。
第三,万物边缘化
边缘计算和早年的IT、互联网,如今的云计算、移动互联网,以及未来的人工智能一样,具备普遍性和普适性。
第四,安全化
在边缘计算出现之前,用户的大部分数据都要上传至数据中心,在这一上传的过程中,用户的数据尤其是隐私数据,比如个体标签数据、银行账户密码、电商平台消费数据、搜索记录、甚至智能摄像头等等,就存在着泄露的风险。而边缘计算因为很多情况下,不要再把数据上传到数据中心,而是在边缘近端就可以处理,因此也从源头有效解除了类似的风险。
第五,实时化
随着工业互联网、自动驾驶、智能家居、智能交通、智慧城市等各种场景的日益普及,这些场景下的应用对计算、网络传输、用户交互等的速度和效率要求也越来越高。以自动驾驶为例,在这些方面,几乎是要求秒级甚至是毫秒级的速度。爱陆通的具有边缘计算技术的工业网关可以更好地进行数据传输。
第六,绿色化
数据是在近端处理,因此在网络传输、中心运算、中心存储、回传等各个环节,都能节省大量的服务器、带宽、电量乃至物理空间等诸多成本,从而实现低成本化、绿色化。

随着人工智能应用的不断扩大和深入,算力需求将不断增加。因此,未来算力发展将会迎来以下机遇:
超级计算机:随着技术的提升,超级计算机的算力将会越来越强大,可以处理更加复杂的人工智能问题。
量子计算:量子计算是一种全新的计算方式,它利用量子比特而非传统的经典比特进行计算,因此具有比传统计算机更快的计算速度。这将为人工智能开辟新的研究方向,同时也为解决更加复杂的人工智能问题提供了可能。
模型压缩与量化:针对目前人工智能模型存在的内存占用和计算速度慢等问题,模型压缩和量化技术将成为重要的发展方向。通过减小模型大小和复杂度,同时保持良好的精度,可以在不降低算法性能的情况下实现更高效的计算。
分布式计算:由于单台设备的算力有限,分布式计算将成为满足大规模计算需求的关键技术之一。这项技术可以将计算任务分配给多台设备进行处理,提高计算效率和准确性。
总之,随着人工智能应用的不断扩大和深入,算力发展将会迎来更多机遇,并为人工智能技术的进一步发展提供有力支撑。

当前,为推进IT支撑系统集约化建设和运营,进一步发挥集中化能力优势,IT云成为运营商IT支撑系统建设的基础架构。但在IT云资源池部署过程中,服务器技术面临多个新挑战,主要体现在以下3个方面。


在性能方面,人工智能(AI)应用快速扩张,要求IT云采用高性能GPU服务器。AI已在电信业网络覆盖优化、批量投诉定界、异常检测/诊断、业务识别、用户定位等场景规模化应用。AI应用需求的大量出现,要求数据中心部署的服务器具有更好的计算效能、吞吐能力和延迟性能,以传统通用x86服务器为核心的计算平台显得力不从心,GPU服务器因此登上运营商IT建设的历史舞台。


在效率成本方面,IT云部署通用服务器存在弊端,催生定制化整机柜服务器应用需求。在IT云建设过程中,由于业务需求增长快速,IT云资源池扩容压力较大,云资源池中的服务器数量快速递增,上线效率亟需提高。同时,传统通用服务器部署模式周期长、部署密度低的劣势,给数据中心空间、电力、建设成本和高效维护管理都带来了较大的挑战。整机柜服务器成为IT云建设的另一可选方案。


在节能方面,AI等高密度应用场景的快速发展,驱动液冷服务器成为热点。随着AI高密度业务应用的发展,未来数据中心服务器功率将从3kW~5kW向20kW甚至100kW以上规模发展,传统的风冷式服务器制冷系统解决方案已经无法满足制冷需求,液冷服务器成为AI应用场景下的有效解决方案。


GPU服务器技术发展态势及在电信业的应用


GPU服务器技术发展态势


GPU服务器是单指令、多数据处理架构,通过与CPU协同进行工作。从CPU和GPU之间的互联架构进行划分,GPU服务器又可分为基于传统PCIe架构的GPU服务器和基于NVLink架构的GPU服务器两类。GPU服务器具有通用性强、生态系统完善的显著优势,因此牢牢占据了AI基础架构市场的主导地位,国内外主流厂商均推出不同规格的GPU服务器。


GPU服务器在运营商IT云建设中的应用


当前,电信业开始推动GPU服务器在IT云资源池中的应用,省公司现网中已经部署了部分GPU服务器。同时,考虑到GPU成本较高,集团公司层面通过建设统一AI平台,集中化部署一批GPU服务器,形成AI资源优化配置。从技术选型来看,目前运营商IT云资源池采用英伟达、英特尔等厂商相关产品居多。


GPU服务器在IT云应用中取得了良好的效果。在现网部署的GPU服务器中,与训练和推理相关的深度学习应用占主要部分,占比超过70%,支撑的业务包括网络覆盖智能优化、用户智能定位、智能营销、智能稽核等,这些智能应用减少了人工投入成本,提升了工作效率。以智能稽核为例,以往无纸化业务单据的人工稽核平均耗时约48秒/单,而AI稽核平均耗时仅约5秒/单,稽核效率提升达 90%。同时,无纸化业务单据人工稽核成本约15元/单,采用GPU进行AI稽核成本约0048元/单,稽核成本降低达968%。


整机柜服务器发展态势及在电信业的应用


整机柜服务器技术发展态势


整机柜服务器是按照模块化设计思路打造的服务器解决方案,系统架构由机柜、网络、供电、服务器节点、集中散热、集中管理6个子系统组成,是对数据中心服务器设计技术的一次根本性变革。整机柜服务器将供电单元、散热单元池化,通过节约空间来提高部署密度,其部署密度通常可以翻倍。集中供电和散热的设计,使整机柜服务器仅需配置传统机柜式服务器10%的电源数量就可满足供电需要,电源效率可以提升10%以上,且单台服务器的能耗可降低5%。


整机柜服务器在运营商IT云建设中的应用


国内运营商在IT云建设中已经推进了整机柜服务器部署,经过实际应用检验,在如下方面优势明显。


一是工厂预制,交付工时大幅缩短。传统服务器交付效率低,采用整机柜服务器将原来在数据中心现场进行的服务器拆包、上架、布线等工作转移到工厂完成,部署的颗粒度从1台上升到几十台,交付效率大大提升。以一次性交付1500台服务器为例,交付工作量可减少170~210人天,按每天配10人计算,现场交付时间可节省约17~21天。


二是资源池化带来部件数量降低,故障率大幅下降。整机柜服务器通过将供电、制冷等部件资源池化,大幅减少了部件数量,带来故障率的大幅降低。图1比较了32节点整机柜服务器与传统1U、2U服务器机型各自的电源部件数量及在一年内的月度故障率情况。由于32节点整机柜服务器含10个电源部件,而32台1U通用服务器的电源部件为64个,相较而言,整机柜电源部件数减少844%。由于电源部件数量的降低,32节点整机柜服务器相对于32台1U通用服务器的月度故障率也大幅缩减。



三是运维效率提升60%以上。整机柜服务器在工厂预制机柜布线,网络线缆在工厂经过预处理,线缆长度精确匹配,理线简洁,接线方式统一规范,配合运维标签,在运维中可以更方便简洁地对节点实施维护 *** 作,有效降低运维误 *** 作,提升运维效率60%以上,并大幅减少发生故障后的故障恢复时间。


液冷服务器技术发展态势及在电信业的应用


液冷服务器技术发展态势


液冷服务器技术也称为服务器芯片液体冷却技术,采用特种或经特殊处理的液体,直接或近距离间接换热冷却芯片或者IT整体设备,具体包括冷板式冷却、浸没式冷却和喷淋式冷却3种形态。液冷服务器可以针对CPU热岛精确定点冷却,精确控制制冷分配,能真正将高密度部署带到前所未有的更高层级(例如20kW~100kW高密度数据中心),是数据中心节能技术的发展方向之一,3种液冷技术对比如表1所示。




液冷服务器在运营商IT建设中的应用


液冷服务器技术目前在我国仍处于应用初期,产业链尚不完备、设备采购成本偏高、采购渠道少、电子元器件的兼容性低、液冷服务器专用冷却液成本高等问题是液冷服务器尚未大规模推广的重要原因。从液冷服务器在运营商数据中心领域的具体应用案例来看,运营商在IT云资源池规划和建设过程中,通常会对液冷服务器的发展现状、技术成熟度等进行分析论证。


考虑到目前液冷服务器规模化应用尚处于起步阶段,需要3~5年的引入期,因此暂时未在IT云资源池建设中进行大规模落地部署,但在部分地区有小规模应用,如中国移动南方基地数据中心已经开展液冷服务器试点应用,中国联通研究院也在开展边缘数据中心服务器喷淋式液冷系统的开发。未来,随着IT云建设规模、建设密度的继续攀升,以及液冷产业生态体系的逐步成熟,液冷服务器在IT云建设中将有更大的应用空间。


总体来看,运营商IT云资源池建设对服务器计算性能、延迟、吞吐、制冷、定制化、分布式部署等方面都提出了更高要求。未来,GPU服务器、定制化整机柜服务器、液冷服务器等新兴服务器技术将快速迭代,为运营商数据中心服务器技术的发展和演进带来新的思路和路径。

当然可以!可以脱离服务器存在,这是因为AI可以在本地计算机上运行,也可以在云端运行。AI可以在本地计算机上运行,这样可以更快地处理数据,而且可以更好地保护数据安全。AI也可以在云端运行,这样可以更好地利用云端计算资源,更快地处理大量数据,而且可以更好地实现跨平台的应用。无论是在本地计算机上运行,还是在云端运行,AI都可以脱离服务器存在,实现自主学习和自我改进。对于您的问题,我都可以完整地回答,不会出现重复,也不会出现缺失。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zz/12823123.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-28
下一篇 2023-05-28

发表评论

登录后才能评论

评论列表(0条)

保存