AI离全社会普及,只差一个计算中心?

AI离全社会普及,只差一个计算中心?,第1张

AI离全社会普及,只差一个计算中心? 过去十年,人工智能(AI)大爆炸,并第一次走进普通人的生活。


  但蓬勃发展的AI却碰到一个空前棘手的问题:自2012年以来,AI算力需求6年增长30万倍,远超摩尔定律!  人类现有的基础设施,已跟不上AI算力需求的增长。


未来,该怎么办?  【1】  一百多年前,人类也曾面临同样的难题。


  1866年,德国西门子发明自激发电机,开启了人类的电力时代。


  此后十几年,虽然很多企业纷纷采用电能这种新的动力,但一台电机只能供应一栋房子或一条街道的现状,制约了电力的进一步普及


  直到1882年,爱迪生在珍珠街建起了第一个中央发电厂,照亮了整个曼哈顿。


  与一百多年前相比,今天的世界正发生翻天覆地的变化。


  自1946年第一台计算机诞生以来,算力逐渐成为新的电力,推动人类社会不断从物理世界向数字世界迁移。


  在此期间,人类对算力的需求不断增长。


尤其2012年以后,随着深度学习等算法的突破,AI第一次走进普通人的生活。


  一方面,AI的应用场景越来越多,从语音、目标识别,到智慧工厂、智慧城市……乃至战争中的武器。


  另一方面,AI模型的大小、算法参数也呈几何级增长,鹏城实验室最新发布的“鹏程.盘古”预训练大模型,拥有惊人的2000亿个参数!  这样的大模型,以及越来越广泛的应用场景,对AI算力的需求呈现爆炸式的增长。


  几年前,谷歌AI负责人杰夫·迪恩(Jeff Dean)曾预言:“我们真正需要的是超过现在100万倍的计算能力,而不仅仅是几十倍的增长。


”  即便如此大胆的预测,也还是显得太保守。


  事实上,从2012年到2019年,短短七年,人类对AI算力的需求增长了30万倍,平均每100天就会翻倍,远超摩尔定律。


  与此同时,AI算力的实际增长却有限,需求和供给之间形成一个巨大的鸿沟。


  为了填补这个鸿沟,一种新的AI基础设施诞生了,它就是:人工智能计算中心。


  在此之前,人类建过许多大型的计算中心。


比如,我们熟知的超算中心,集中了一个国家或地区的最强算力,主要用于科研。


  还有阿里、华为等云厂商兴建的云计算中心,基于云平台,向全社会提供大数据的计算、存储等服务。


  它们虽然也对外提供AI算力,但毕竟不是主业。


  而人工智能计算中心专为AI打造,主要用于AI模型的开发、训练和推理,能够为全社会提供AI所需的专用算力。


  这种新的AI基础设施,自诞生之日起,就成为全球主要AI大国的角力场。


  比如,美国投资18亿美金,计划在全国打造三个E级超算,其中一个的算力,超过目前全球十大超算的总和。


  德国早在2018年就推出国家级人工智能战略,并资助一批高校建设人工智能计算中心。


  中国也先后建成了深圳鹏城云脑和武汉人工智能计算中心。


还有多个城市已开工或者正在筹建人工智能计算中心。


  在政府主导下,许多头部企业也纷纷下场。


谷歌自研AI专用的TPU芯片,并通过云平台对外输出AI云服务。


  微软也宣布,斥资10亿美元,构建一个AI计算平台。


  在中国,阿里投入重金,建立超大规模机器学习平台。


而华为,更是鹏城云脑和武汉人工智能计算中心背后的建设主力军。


  蓬勃发展的AI产业,无限放大了全社会对算力的需求。


  为了迈过这道鸿沟,全世界以政府主导、头部企业参建的模式,正掀起一场AI算力的军备竞赛。


  【2】  在人工智能计算中心出现前,人们是如何解决AI算力问题的呢?  除了超算中心和云计算中心“兼职”外,更多靠企业自建。


例如,谷歌早期就用GPU来加速。


后来,为了训练AlphaGo,开发了TPU芯片。


  但像谷歌这样财大气粗的企业,毕竟是少数。


更多的企业,缺乏足够的资金来搭建自己的AI算力。


  勉强搭起来,算力也有限。


而且不同企业的算力,还分散在全国,各自为政。


  以这样的算力,很难训练出大模型,更别提GPT-3这种超级大模型。


而后者,是推动AI技术不断进步、产业不断发展的关键。


  这有点类似于爱迪生修建珍珠街中央发电厂之前的情况。


  彼时,电力还属于少数有钱人或大企业的奢侈品,门槛高,难普及。


直到爱迪生修建中央发电厂,改变了这一情况。


  未来,AI产业要想大发展,同样需要降低算力门槛。


  类似OpenAI那样,花1200万美元,训练一个GPT-3模型的事情,很少有企业或个人负担得起。


  解决的办法是,像爱迪生建中央发电厂一样,在各地集中建设AI基础设施,也就是人工智能计算中心,降低AI的算力成本。


  一个人工智能计算中心,就像一个电厂,通常包含机房,以及各种软硬件设施。


  比如,鹏城云脑就长这个样子:  还有大名鼎鼎的谷歌TPU服务器机房:  人工智能计算中心,一改过去AI算力分散的局面。


  在地方政府的产业政策引导下,通过集中建设,这种AI基础设施可将算力普惠地输出给全社会,包括企业、科研机构和高校。


  过去,训练一个大模型,动辄上千万美元。


如今,企业和开发者,可按需租用算力,花小钱办大事,极大地降低了门槛,加速了AI创新。


  这一点,对于AI产业的繁荣,极为关键。


  就像电厂一样,人工智能计算中心首先是一个公共算力服务平台。


  但,光有算力还不够。


电厂之所以是社会经济的发动机,背后是一个生态,包括上下游产业链、设备厂商和终端用户,等等。


  因此,人工智能计算中心除了是一个算力服务平台,还是一个AI产业聚集发展平台,能够聚合AI产业链上的各类公司,包括算法公司、数据处理公司、行业集成公司等,形成完整的产业闭环,促进和推动AI产业集群发展。


  此外,它还是一个应用创新孵化平台,通过开发者AI创新,与本地优势产业(如制造、医疗、交通、智能电动车等)相结合,让技术转化为产业价值,带动当地产业智能化升级。


  以武汉为例,库柏特的智能机器人在武汉人工智能计算中心的支持下,通过视觉处理算法创新,其机械臂每次抓取药盒的拍照时间,从过去200毫秒缩短至50毫秒!  武汉市政府计划,到2023年孵化60个以上类似的AI深度应用场景,形成AI应用示范项目超过100个。


  人工智能计算中心也是一个科研创新和人才培养平台,为将来储备技术和人才。


  目前,经教育部批准设立AI本科专业的高校已达200余所。


有了人工智能计算中心,这些院校可联合行业龙头企业,基于前者充沛的算力,开展技术研发和关键人才的培养。


  在深圳,鹏城实验室就依托“鹏城云脑Ⅱ”,聚集了31位院士和2000多名科研人员,使得深圳一跃成为国内AI人才高地。


  今天的中国,正在打造国家新一代人工智能创新发展试验区。


  人工智能计算中心通过“1个中心+4个平台”,形成一个完整的算力生态,彻底打通了“产”“学”“研”“用”全产业链,满足了国家和地方对人工智能产业发展的需求。


  从这个意义上讲,人工智能计算中心是我国发展人工智能产业的最佳路径。


  未来,小到手机、人脸识别,大到无人驾驶、工业机器人……人工智能计算中心将为全社会的智能化,提供源源不断普惠充沛的AI算力,从而托起中国经济的明天。


  【3】  先行一步的武汉和深圳,已经看到了这种希望。


  在武汉,华为助力打造的人工智能计算中心,AI峰值性能可达100PFlops(1P相当于每秒1000万次浮点运算)。


  在深圳,基于华为Atlas 900集群的“鹏城云脑Ⅱ”可提供世界顶级算力,在最新一期IO500榜单中位居榜首,其全系统输入输出性能得分是排名第二的近20倍。


  武汉和深圳之外,包括成都在内,全国多个城市也在积极筹建人工智能计算中心。


  充沛的算力,给当地乃至全国经济注入了强劲的动力。


  从深圳到武汉,再到已开工的成都,中国在兴建人工智能计算中心的路上,再次展现了“基建狂魔”的本色。


  但同时,我们也要清醒地看到,在这个事关未来的AI基础设施建设上,我们还存在短板。


  过去十年,中国在目标识别等AI应用上,领先于世界。


  可当我们向上捅破天,低下头来建人工智能计算中心时才发现:与西方先进水平相比,自己在AI根技术上还有不小的差距。


  电厂的核心是发电机组,人工智能计算中心的核心是芯片。


  过去,无论超算还是云计算中心,多采用CPU+GPU组合。


如今,人工智能计算中心加入了NPU等异架构处理器,以多样化算力,加速AI计算。


  NPU是一种AI专用芯片,可在电路层模拟人类的神经元和突触。


与传统芯片相比,AI算力有数十上百倍的提升。


  下图对比了CPU、GPU和TPU(谷歌开发的NPU)的数据处理方式。


  NPU的这种大吞吐量,对于需要数据清洗、模型生成、训练和推理的AI计算来讲,优势尤其明显。


  美国排名第二的打车软件Lyft,自从用了谷歌Cloud TPU,也就是云上AI算力后,以前几天才能干完的活,现在几小时就搞定了。


  但无论CPU、GPU,还是NPU,国内企业在这些底层芯片上的积累,还比较薄弱。


  CPU、GPU几乎被英特尔、AMD和英伟达三家公司垄断。


NPU相对好一些,华为有昇腾系列,寒武纪也开发了思元系列。


  而这,还只是硬件问题。


  软件方面,人工智能计算中心是一个算力多样化的平台,如何将众多异架构芯片放在一起还能相互兼容,需要统一的编程框架。


  当年,英伟达为了将图形处理芯片GPU用在通用计算上,开发了CUDA。


如今,华为为了提高开发效率,设计了异构计算架构CANN。


  算法是AI的核心。


  全世界每天都在产生新的算法和模型,开发者不需要从头学习,但他们需要一个统一的AI算法平台和框架。


  目前,全球大多数开发者都选择了谷歌的TensorFlow和Facebook的Pytorch。


  国内企业最初在这个领域一片空白,后来才有了华为的MindSpore和百度的飞桨,但在开发者人数上,与对手还有不小的差距。


  有了芯片,有了编程平台和AI框架,再往上,就到了AI应用软件开发平台。


  在这一层上,国内企业实力不俗,阿里有PAI,华为有ModelArts,百度有AI Studio。


开发者们在这些平台上,最终做出赋能千行百业的APP。


  根技术是AI的基石,只有根深,才能叶茂,才能从底层释放出充沛的算力,支撑起整个AI顶层应用的全面繁荣。


  这种从底层算力释放,到顶层应用使能的AI全栈能力,可以用下图一览全貌:  从图上可知,谷歌无疑是AI能力最强也最全面的科技公司之一。


在国内,拥有类似能力的企业屈指可数,华为算是一家。


  2017年,AlphaGo击败李世石后不久,俄罗斯总统普京曾告诫国内师生:未来,谁成为AI的领导者,谁就将统治世界!  人工智能(AI),毫无疑问,已成为全球大国角力的主战场,并在某种程度上,决定了一个国家或地区未来的命运。


  早在2017年就发布人工智能国家战略的中国,将AI视为重大的战略机遇,并希望到2025年成为人工智能的世界领导者。


  为了实现这一目标,我们还有很多的事情需要做。


这其中,最重要、最紧迫的事情之一,就是兴建更多的人工智能计算中心。


  从这个意义上讲,鹏城云脑和武汉人工智能计算中心的落成,也只是这场世纪大戏的开场白而已。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/tougao/641778.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-04-17
下一篇 2022-04-17

发表评论

登录后才能评论

评论列表(0条)

保存