英伟达秀全球最大GPU,黄仁勋从烤箱里拿出的产品果然「爆了」

英伟达秀全球最大GPU,黄仁勋从烤箱里拿出的产品果然「爆了」,第1张



SegmentFault 思否报道丨公众号:SegmentFault



是他,还是那个男人,那个熟悉的皮夹克。


5 月 14 日 晚,黄仁勋在厨房召开了英伟达 GTC 2020 线上发布会。由于新冠病毒疫情影响,英伟达原计划的现场活动被迫取消,定于 3 月 24 日通过媒体发布的新闻稿也未见踪影。千呼万唤中,黄仁勋终于在烤箱前和大家见面了。


本届 GTC 从预热开始就不走寻常路,黄仁勋在大会前一天晒出了自己从烤箱里拿出了 全新的安培(Ampere)架构 GPU NVIDIA A100



令人颇感意外的是,虽然无法举办线下活动,英伟达竟然连线上直播都懒得办,直接播放了黄仁勋在自家厨房里录制的视频完成了新品发布。果然是手里有「硬货」就不在乎形式了。


英伟达的首款安培架构 GPU 可以算「史上最强」了,基于 7nm 工艺制程,拥有 540 亿晶体管,面积为826mm²,与 Volta 架构相比性能提升了 20 倍 ,既可以做训练也可以做推理。



NVIDIA A100 具有 TF32的第三代 Tensor Core 核心,能在不更改任何代码的情况下将 FP32 精度下的 AI 性能提高 20倍,达到195万亿次/秒


多实例 GPU-MG 可将单个 A100 GPU 分割为 7 个独立的 GPU,根据任务不同提供不同的计算力,实现最佳利用率和投资回报率的最大化。


NVIDIA A100 新的效率技术利用了AI数学固有的稀疏性,优化之后性能提升了一倍。



英伟达将 NVIDIA A100 的特性总结为以下 5 点:



黄仁勋说:“Ampere架构的突破性设计为英伟达第八代GPU提供了迄今为止最大的性能飞跃, 集 AI 训练和推理于一身,并且其性能相比于前代产品提升了高达 20 倍 。这是有史以来首次,可以在一个平台上实现对横向扩展以及纵向扩展的负载的加速。A100 将在提高吞吐量的同时,降低数据中心的成本。”


NVIDIA A100 是第一个基于 NVIDIA 安培架构的 GPU,提供了在 NVIDIA 八代 GPU 里最大的性能提升,它还可用于数据分析,科学计算和云图形,并已全面投产并交付给全球客户。


全球 18 家领先的服务提供商和系统构建商正在将 NVIDIA A100 整合到他们的服务和产品中,其中包括阿里云、AWS、百度云、思科、Dell Technologies、Google Cloud、HPE、Microsoft Azure和甲骨文。



黄仁勋还介绍了基于 NVIDIA A100 的第三代 AI 系统 DGX-A100 AI。DGX-A100 AI 是世界上第一台单节点 AI 算力达到 5 PFLOPS 的服务器 ,每台 DGX A100 可以分割为多达 56 个独立运行的实例,还集合了 8 个 NVIDIA A100 GPU,每个 GPU 均支持 12 路 NVLink 互连总线。



据了解,与其他高端 CPU 服务器相比,DGXA100 的 AI 计算性能高 150 倍、内存带宽高 40 倍、IO 带宽高 40 倍。


黄仁勋说:“AI已经被应用到云计算、 汽车 、零售、医疗等众多领域,AI算法也正变得越来越复杂和多样。ResNet模型的算力需求从2016年到现在已经增加了3000倍,我们需要更好的解决方案。”


如此强大的 DGX-A100 AI 售价自然也不便宜,标价 199 万美元,约合人民币 141 万元。


此外,黄仁勋还提到了英伟达新一代 DGXSuper POD 集群,由 140 台DGXA100系统组成,AI算力达 700 Petaflops,相当于数千台服务器的性能



据了解,首批 DGXSuper POD 将部署在美国能源部阿贡国家实验室,用于新冠病毒疫情相关的研究。




除了以上两款重磅产品,黄仁勋还宣布推出了 NVIDIA Merlin,这是一个用于构建下一代推荐系统的端到端框架,该系统正迅速成为更加个性化互联网的引擎。Merlin将创建一个 100 TB 数据集推荐系统所需的时间从四天减少到 20 分钟。


英伟达此次还推出了众多 AI 领域相关产品,包括 以太网智能网卡 Mellanox ConnectX-6 Lx SmartNIC、EGX 边缘 AI 平台和一系列软件更新扩展。


1以太网智能网卡 Mellanox ConnectX-6 Lx SmartNIC


ConnectX-6 Lx 是业界首个为 25Gb/s 优化的安全智能网卡,可提供两个 25Gb/s 端口或一个 50Gb/s 端口。


2EGX 边缘 AI 平台


EGX Edge AI 平台是首款基于 NVIDIA 安培架构的边缘 AI 产品,可接收高达 200Gbps 的数据,并将其直接发送到 GPU 内存进行 AI 或 5G 信号处理。



3Spark 30


英伟达还宣布在 Spark 30 上支持 NVIDIA GPU 加速,基于 RAPIDS 的 Spark 30,打破了提取,转换和加载数据的性能基准。它已经帮助 Adobe Intelligent Services 将计算成本降低了90%。


4NVIDIA Jarvis


黄仁勋在发布会中详细介绍了 NVIDIA Jarvis,这是一个新的端到端平台,可以充分发挥英伟达 AI 平台的强大功能,创建实时多模态对话式 AI。



5Misty 交互 AI


现场演示中,一个名为 Misty 的 AI系统展示了实时理解并回答一系列有关天气的复杂问题的交互过程。



自动驾驶方面,英伟达也将安培架构嵌入了新的 NVIDIA DRIVE 平台。据了解,小马智行、法拉第未来等自动驾驶企业已宣布采用 NVIDIA DRIVE AGX 计算平台。


英伟达的 NVIDIA Isaac 软件定义的机器人平台还将用于宝马集团工厂。英伟达机器人技术全球生态系统涵盖配送、零售、自主移动机器人、农业、服务业、物流、制造和医疗保健各个行业。



英伟达这场时隔 3 年的发布会可谓诚意满满,首次推出的安培架构给足了惊喜,性能提升 20 倍的 NVIDIA A100 GPU 可谓性能飞跃。


虽然发布会并不是现场直播,但依旧爆点十足。一台就比千台强的 DGX-A100 AI 也印证了黄仁勋那就经典名言“买的越多,赚的越多”。英伟达的 AI 解决方案已经覆盖了各行各业,强大的 AI 生态正在形成。


中国工程院院士倪光南曾表示:「芯片设计门槛极高,只有极少数企业能够承受中高端芯片研发成本,这也制约了芯片领域创新。」


英伟达在本届 GTC 上推出的安培架构和基于此的一系列 AI 平台无一部显示了一个 AI 芯片巨头的实力,又一次树立了性能标杆。


根据 Gartner 的预测数据 ,未来 5 年内全球人工智能芯片市场规模将呈飙升趋势 ,自 2018 年的 427 亿美元 ,升高至 343 亿美元 ,增长已超过 7 倍,可见 AI 芯片市场有较大增长空间。


尽管与西方发达国家相比,中国的 AI 芯片研发还存在一定差距,但过去两年中,中国 AI 芯片初创企业已获得了数亿美元的资金。华为等公司也开发了令人印象深刻的芯片设计。


但芯片开发极具复杂性,中国人才的短缺以及缺乏多家全球销售排名前 15 位的中国半导体公司的情况表明,中国仍需要取得重大进展,才能在半导体领域与美国匹敌。

2019年云计算行业将走向何方?有说云计算目前还处于初级阶段,新的竞争对手能够快速追赶,有说云计算行业已经进入寡头竞争时代,马太效应开始发挥威力,后面的追赶者会逐步被洗牌。

相对应,在2018年,云计算市场可以说风起云涌,中国的阿里云2018年营收突破200亿成为了亚洲最大的云计算厂商,传统老牌IBM跌落神坛,谷歌云快速追上成为全球前五。

核心云服务包括基础设施即服务(IaaS),在该领域亚马逊、阿里巴巴等公司提供计算处理能力;以及平台即服务(PaaS),在该领域微软等公司提供某种基于云的 *** 作系统,让人们可以在此基础上构建和运营应用。

高盛分析师认为,云支出眼下正在不断扩大,这部分是由于它蚕食了企业的非云支出。比如在过去,企业在自己的服务器上维护和运营应用,如今它们则在云服务上运营应用。

去年,云服务支出占到了总潜在市场的约8%。高盛预计,到2021年该数字将跃升至15%。换句话说,越来越多的企业IT支出将转向云。

高盛数据预测,企业去年在核心云服务上的支出约为470亿美元,它预计到今年该数字将增长至620亿美元,到2021年将达到1160亿美元。

“作为企业 科技 市场最热门的板块,云计算仍然处于早期阶段。但对于许多公司而言,其机会窗口正在迅速关闭。”

高盛在其最新云计算市场季度报告中这么认为。据分析师称,好消息是云服务市场将继续以每年至少20%的速度增长到2021年,坏消息则是越来越多的云支出将流向四家公司,即亚马逊、微软、谷歌和阿里巴巴。

我们仍然预计,公共云市场将整合为寡头格局,四大玩家占据大部分份额”, 高盛分析师在报告中说。

通常情况下,随着市场迅速扩张,将有足够的空间供竞争对手繁荣发展。但高盛并不这么认为。其分析师预计,云市场已经开始整合,这一趋势在未来几年只会更加显著。他们表示,只有最大的玩家——基本上就是亚马逊AWS、微软Azure、谷歌云以及中国巨头阿里云——才有资源提供差异化的服务,并持续打造竞争所需的数据服务器基础设施。

去年,亚马逊、微软、谷歌和阿里巴巴占据了核心云计算市场约56%的份额。据高盛预计,到明年它们的份额将合计达到84%。

这一趋势,同样出现在中国,2018年IDC数据报告支持,阿里云在中国目前占据将近50%的市场份额,比第二到第九名加起来还多。

“最大的四个玩家(AWS、Azure、阿里云、谷歌)将继续统治市场份额,”分析师说。

此外,在大玩家收入增长的同时,进入云市场的其他玩家的收入实际上将会减少。

高盛预计,虽然四巨头以外的公司去年通过提供云服务获得了约210亿美元的营收,但今年该数字将降至200亿美元,明年则仅有120亿美元。

这对IBM、甲骨文和其他试图进军云计算市场的公司来说不是个好消息。如果高盛的预测准确,这些公司将只能为云服务巨头留下的残羹剩饭而战。

NVIDIA藉VMware年度大会VMWorld举办之际宣布两大重要技术,其一是宣布名为vComputeServer的虚拟化运算伺服器,另一项则是携手VMware、AWS,将基于GPU加速平台的资源整合到VMwareCloudonAWS混合云服务,使科学研究、数据分析、AI等,可在云端透过GPU虚拟化技术进行。

▲vComputeServer的目的是将GPU虚拟化技术带到云端协同运算

虽然GPU虚拟化技术行之有年,不过传统的云端协同运算仍是基于CPU进行,但对于现代化的运算内容却已经不敷使用,而vComputeServer即是将GPU虚拟化带到云端协同运算中的概念,透过与VMware的合作,使VMware的vSphere虚拟化平台可运用GPU资源进行运算,能够在vSphere平台的虚拟机器搭配一张甚至多张虚拟GPU资源,还可串接NVIDIAGPUCloud的运算资源。

▲VWmare与NVIDIA让VMwareCloudonAWS混合云也能使用虚拟GPU

借由两者的合作,在这些虚拟机器环境中能够借由加入虚拟化GPU提升在现代运算应用的性能,例如AI、科学研究等应用;此举有助于降低企业在面临自有伺服器性能不足、意图结合云端虚拟化服务扩充性能时,可利用具备虚拟化GPU的vComputeServer进行协同运算,降低企业的建置与维护成本,又具备临时调度性能的d性。

▲可依运算量、运算类型在虚拟机器搭配合适的虚拟化GPU

另一项宣布的重点,则是使GTC2019所公布的CUDA-XAI平台能够串接VMware的vSphere、vCenter与vMotion等服务,利用结合新一代Turing图灵架构的新技术、TensorCore与结合TensorRT框架等,取得更强的运算力,在此次宣布后,使用者能透过NVIDIAGPUCloud将自有的伺服器与VMwareCloudonAWS连接进行加速。

▲虚拟GPU为企业使用混合云带来更强的运算力

使用者可依照运算的类型不同,自VMwareCloudonAWS调度NVIDIAT4、QuadroRTX8000、QuadroRTX6000等图灵架构GPU,Volta架构的TeslaV100,或是选择Pascal世代架构的TeslaP40、TeslaP60、TeslaP100等虚拟化GPU搭配。NVIDIA强调,在结合虚拟GPU后,可望将运算性能提升约50倍以上,更在AI相关的训练与推论项目获得显著的加速。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zz/13516070.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-08-23
下一篇 2023-08-23

发表评论

登录后才能评论

评论列表(0条)

保存