本站原创,作者:章鹰,电子发烧友执行副主编。
AI芯片行业是全球科技行业最惹人注目的赛道,在这条赛道上,英伟达公司已经耕耘10多年,最近,这家以GPU加速计算为核心竞争力的公司遭遇了两件烦心事:一是,英伟达三季度财报公布后,加密货币业务市场需求下降导致GPU库存问题,影响未来业绩展望,二是美国商务部工业安全局针对关键新兴和基础技术和相关产品地出口管制框架地提案征求开始,涉及AI技术、AI芯片、微处理器和量子技术等14个领域,英伟达股价受到冲击,跌幅达到了高峰期的50%。
图1:NVDIA 创始人兼首席执行官黄仁勋
11月21日,在苏州金鸡湖国际会议中心,英伟达GTC大会现场,5000多人的大会现场人头攒动,英伟达CEO黄仁勋显然没有受到外部市场干扰,他带来激情四溢的演讲,他强调指出三大趋势:第一、摩尔定律已经失效,影响全球的计算行业,各行各业的计算需求与传统计算极限之间逐渐扩大的差距,英伟达彻底改变计算方式,首创GPU加速计算模型,满足开发人员的需求,并帮助他们实现飞跃;第二、AI将改变HPC和超大规模计算,科学家正在融合物理模拟和AI预测方法来创建数量级更大的模型。HPC正在成为AI计算机,并且为科学家、数据科学家和AI开发者所用。第三、AI让世界变得更加自动化,AI将赋能所有移动的机器,数十亿汽车,数百万辆汽车,接驳车,建筑机械以及数十亿工业和服务机器人都将具备自主能力。
黄仁勋表示,英伟达正在重塑计算机图形和未来计算,以及人工智能如何通过自主机器,实现工厂和物流现场自动化,电子发烧友记者注意道,在云端训练和未来高性能计算重塑,英伟达做了完整的布局。
云端训练推出重量级产品:T4和HGX-2 GPU加速平台
云计算正在进入算力时代,云计算、大数据、物联网、人工智能等信息技术的快速发展和传统产业的数字化转型,推动数据呈现几何级增长,带来了大量可处理的数据存量和知识。
据IDC数据,2020年全球公有云在算力投资比例将超过10%,成为资本开支重点。全球服务器市场总体呈现高景气,量价齐升,下游的公有云厂商加速算力投资趋势明显。传统大型算力需求主要通过超算中心的方式来实现,主要依托国家和大型机构投资,最近三年各大型公有云厂商包括Amazon、阿里巴巴均推出HPC超算业务,其战略布局云计算算力业务的方向明确。
据测算,公有云算力投资比例从2014年的0.01%增长至2020年的11.75%,除了提供传统的存储服务外,主要的云厂商逐渐配置其计算能力,增加算力投资,同时私有云和传统IT领域的算力配置也将逐步成为标配。
针对云计算中心对于算力的不同层次需求,NVDIA采取了双重战略:第一,向上扩展,与百度、腾讯和阿里巴巴合作,NVDIA推出了V100 HGX-2,一个具备强大算力的高性能系统,既可做科学计算,也可做人工智能计算,能够处理海量的数据,解决为数不多的大问题;第二,横向扩展,NVIDIA推出T4 GPU产品,这是一台小型计算系统、超大能量,功耗低,可以进行大规模的数据中心的部署。
图2:HGX-2横空出世
黄仁勋幽默地说,HGX-2板子有点重,HGX-2大概300镑-400镑,连接8个 V100 GPU,通过NVLink连接,总共1 PFLOPS。每个 GPU 以 300 GB / s的速度与其他 GPU 通信,并且以每秒8 TB的速度访问所有 256 GB 的显存,其他计算机节点没有能力提供这么强大的能力。400台服务器被他手上HGX-2系统主板代替了。
比起它强大的功能,HGX-2重量已经不是焦点。NVIDIA 的 HGX-2 在单节点中能够提供 2 千万亿次的计算性能,与仅使用 CPU 的服务器相比,它将 AI 机器学习工作负载的运行速度提升近 550 倍,将 AI 深度学习工作负载的运行速度提升近 300 倍,将高性能计算工作负载的运行速度提升近 160 倍。
华为、腾讯、百度和浪潮等国内主流云计算和服务器厂商均采用这个平台,华为智能计算业务部总裁邱隆表示,NVIDIA GPU计算平台在AI、HPC等数据科学计算领域拥有领先优势,作为NVIDIA HGX-2 的合作伙伴,华为将基于HGX-2架构为用户提供强大的计算性能,以满足各类AI和高性能计算应用。
接着,在GTC大会上,黄仁勋重磅发布了T4处理器。T4 基于全新 NVIDIA TuringTM 架构,采用多精度 Turing Tensor Core和全新 RT Core,与加速的容器化软件堆栈相结合,提供规模空前的性能。70 瓦特 T4 GPU 大致相当于一条巧克力糖的大小,可灵活适应于标准服务器或任何开放计算项目的超大规模服务器设计。
T4 的多精度功能可支持 4 种不同精度等级的各类 AI 工作负载,助力实现突破性的 AI 性能,FP32精度能够提供 8.1 TFLOPS,FP16 精度能够提供 65 TFLOPS,INT8 精度能够提供 130 TOPS,INT4精度能够提供 260 TOPS。针对 AI 推理工作负载,配备 2 个 T4 GPU 的单个服务器最多可取代 54 台 CPU 服务器。针对 AI 训练,配备 2 个 T4 的单个服务器可取代 9 台双套接字 CPU 服务器。T4 GPU仅仅是开始,容器化的TRT推理服务器今天开源,可以在Kubernetes运行。
NVDIA全球副总裁、中国区总经理张建中对电子发烧友记者表示,今年T4推出,在推理方面也非常出色,众多互联网公司,包括头条、美团、小米等,以及电信、金融等领域厂商都开始在数据中心采用NVDIA的产品。我们对未来三年国内的数据中心业务发展都是非常乐观的。
发布RAPIDS机器学习加速堆栈
黄仁勋在GTC大会上指出,机器学习比深度学习市场更为广阔。据分析师估计,面向数据科学和机器学习的服务器市场每年价值约为 200 亿美元,加上科学分析和深度学习市场,高性能计算市场总价值大约为 360 亿美元。
RAPSID发布于2018年10月10日的GTC Europe大会上,是一款针对数据科学和机器学习的GPU加速平台,它为数据科学家提供标准化的流水线式工具,数据处理速度较仅用CPU提升50倍。
机器学习典型地应用场景,比如在电商系统,亚马逊借助机器学习来改善用户对其业务的使用体验,包括产品推荐,替代性产品预测,欺诈检测,元数据验证与知识获取。又比如医疗等行业中有大量结构化数据,平安国保险业巨头平安集团,其拥有近1.8亿个人用户,为深入洞察欺诈检测等问题或预测人群疾病,平安科技数据科学家团队除了自身独特地机器学习算法,也用到scikit-learn常用机器学习库,最近,平安科技使用了RAPSID,这个新开源地GPU加速平台,使用RAPSID和GPU加速PCA和DBSAN之后,工作执行流程加快了80倍,数据训练和加载时间从几天缩短到几个小时,这些都加速了公司做主动预测并完善预防计划。
黄仁勋表示,RAPIDS目前已经被非常广泛的采用,比如华大基因、中国移动、平安科技等中国公司都宣布引入它进行机器学习加速。
最后,黄仁勋介绍说,NVIDIA AGX系列,还有面向自主机器、机器人的XAVIER处理器现已全面投产。众多车企都在围绕自动驾驶进行开发,放眼2020或是2021年的市场竞争格局,整个行业正在快速变化当中,人工智能从根本上推动了这个改变。大家可以看到NVDIA把人工智能融入到计算机图形到高性能计算,到自主机器和自动驾驶。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)