英伟达官宣一新并购计划
英伟达官宣一新并购计划,Excelero对Nvidia来说是一个很合适的选择,因为两家厂商在过去几年中曾就多项举措展开密切合作,英伟达官宣一新并购计划。
英伟达官宣一新并购计划1英伟达当地时间周一宣布,新收购了以色列公司Excelero,后者是企业数据存储和块存储解决方案的供应商。收购条款未披露。Excelero 的工程团队将加入 Nvidia 在以色列不断增长的业务,该芯片制造商在以色列的七个研发中心雇佣了约 2,800 名员工,包括 Yokneam、Mellanox 的总部、特拉维夫、耶路撒冷、拉阿纳纳和南部的贝尔谢巴。
资料显示,Excelero成立于2014年,三年后走出隐身模式,是一家NVMesh软件的开发厂商,该软件主要用于管理和保护NVMe闪存驱动器虚拟阵列,使其在公有云和私有云环境中用作块存储。
据了解,英伟达在以色列的研发活动目前是该公司在美国以外最大的。该公司最近宣布,它正在建立一个新的设计和工程团队,该团队将领导面向人工智能、机器人技术、自动驾驶汽车和 Nvidia 的新平台 Omniverse 的下一代 CPU(中央处理器)的开发,该平台允许虚拟世界模拟。
新的 CPU 团队将加入目前活跃在以色列的多个团队,致力于高速网络和 HPC(高性能计算)技术、Nvidia 的 DPU(数据处理单元)开发、人工智能研究和其他活动。这家美国公司由 Jensen Huang、Chris Malachowsky 和 Curtis Priem 于 1993 年创立,是一家图形芯片公司,发明了图形处理单元 (GPU),如今已成为人工智能领域的领导者。
而Excelero的软件旨在利用“服务器存储区域网络”,这些设备是建立在商用硬件上的,通过利用内部存储让数据尽可能地靠近处理器。该软件提供横向扩展应用(随需求线性增长和缩小),并通过网络灵活访问闪存存储。
Excelero对Nvidia来说是一个很合适的选择,因为两家厂商在过去几年中曾就多项举措展开密切合作,例如Excelero帮助Nvidia开发了Magnum IO软件套件,旨在帮助数据科学家和人工智能研究人员在短时间内处理大量数据,此外Excelero的软件也用于Nvidia Quantum-2 Infiniband网络平台。
Romem表示:“Excelero团队将加入Nvidia,眼下市场对高性能计算和人工智能的需求正在激增,我们将与Nvidia合作,确保我们现有的客户得到支持,很高兴我们在块存储方面的专业知识将运用于Nvidia世界级的AI和HPC平台上。”
Nvidia表示,在将Excelero NVMesh技术集成到Nvidia企业软件堆栈之前,将通过履行所有合同来支持Excelero的现有客户。
英伟达官宣一新并购计划2早在今年2月,业内就有传闻称英伟达(Nvidia)将收购以色列企业数据存储和块存储解决方案提供商Excelero。当地时间本周一(3月7日),英伟达正式官宣了对Excelero的收购,但具体的`收购条款并未披露。
资料显示,Excelero成立于2014年,是一家NVMesh软件的开发厂商,该软件主要用于管理和保护NVMe闪存驱动器虚拟阵列,使其在公有云和私有云环境中用作块存储。
Excelero的NVMesh软件基于增强版的NVMe-oF协议,该协议被认为是Web规模部署和大数据用例的最佳选择,提供了低延迟的分布式存储,并结合了本地闪存的性能和集中存储的便利性。
NVMesh软件软件旨在利用“服务器存储区域网络”,这些设备是建立在商用硬件上的,通过利用内部存储让数据尽可能地靠近处理器。该软件提供横向扩展应用(随需求线性增长和缩小),并通过网络灵活访问闪存存储。Excelero的软件以高吞吐量、低延迟和对Kubernetes容器的支持赢得了用户的好评,并且还吸引了不少云服务供应商与其展开合作。
此前已经被英伟达收购的Mellanox就曾是Excelero投资者及合作伙伴,双方在加速存储方面的应用有不少合作,比如将Excelero的技术应用于InfiniBand和RoCE网络产品中。
Excelero对Nvidia来说是一个很合适的选择,因为两家厂商在过去几年中曾就多项举措展开密切合作,例如Excelero帮助英伟达开发了Magnum IO软件套件,旨在帮助数据科学家和人工智能研究人员在短时间内处理大量数据,此外Excelero的软件也用于Nvidia Quantum-2 Infiniband网络平台。
英伟达已承诺,在收购Excelero后会通过继续履行合同来支持Excelero的客户,未来还会将Excelero的技术集成到英伟达的企业软件堆栈中。
Excelero的首席执行官兼联合创始人Yaniv Romem表示:“随着对高性能计算和人工智能的需求激增,Excelero团队将加入英伟达。我们将与英伟达合作,确保为对现有的客户提供支持。展望未来,我们很高兴将我们在块存储方面的专业知识应用于英伟达的世界级AI和HPC平台。”
英伟达高级工程总监 Suresh Ollala表示,Excelero 团队“带来了大型企业在存储区域网络中使用的块存储方面的深厚专业知识。现在,他们的任务是帮助扩展对我们企业软件堆栈中块存储的支持,例如用于高性能计算的集群。块存储在我们 DPU 上运行的 DOCA 软件框架中也发挥着重要作用。”
英伟达官宣一新并购计划3英伟达周一宣布,其已收购 2014 年成立的高性能块存储提供商 Excelero,并将把该公司的相关技术整合到其业务软件堆栈中。Excelero 以 NVMesh 这款核心产品而被大家所熟知,特点是通过联网的 NVMe SSD 存储来提供软件定义的块存储,且支持本地或私有云环境中的部署。去年,Excelero 还引入了对 Microsoft Azure 云平台的支持。
过去几年,Excelero 已累计吸引 3500 万美元的风投,并于 2018 年得到了西部数据的青睐。收购之后,英伟达将继续为当前客户提供 NVMesh 维护支持,但后续规划将全盘推倒重来。
这意味着英伟达将彻底放弃 Excelero 的任何品牌推广计划,且后者将不会维持独立运营。参考之前的 Mellanox 收购案,它现在已被重命名为 NVIDIA Networking,不同的是仍作为一个单独的部门来运营。
英伟达指出,Excelero 的大部分工程团队都会留下,包括该公司的联合创始人(首席执行官 Yaniv Romem、研发副总裁 Ofer Oshri 和首席科学家 Omri Mann)。 至于办公地点,大多数 Excelero 员工将继续驻扎特拉维夫分公司,但目前尚不清楚原管理层会在英伟达麾下扮演何种角色。
英伟达计划利用 Excelero 的相关技术经验,来增强其数据存储和处理产品线。并且强调会利用块存储来支撑高性能计算(HPC)集群,以及由 BlueField 数据处理单元 / DPU 处理的 DOCA 软件框架的特定应用程序。
Excelero CEO 兼联合创始人 Yaniv Romem 表示:
随着对高性能计算和人工智能的需求激增,Excelero 团队将与 NVIDIA 合作,以确保我们现有的客户可继续得到支持。 同时我们很高兴将自身在块存储方面的专业知识,应用于 NVIDIA 在全球范围内领先的 AI 和 HPC 平台。
其实多年来,Excelero 已经和英伟达开展过诸多项目合作。比如三年前,Mellanox 就投资过 Excelero 。
此外还有通过远程直接内存访问(RDMA)来推动 Excelero 技术发展,英伟达认为这对于该公司的 InfiniBand 和基于融合以太网的 RDMA / RoCE 都至关重要。
「初创公司要贸然打入云端市场,简直就是自寻死路」。
长久以来,云端的数据中心市场被视为创业公司的禁地,因为英特尔、英伟达、AMD 等巨头林立,竞争太过凶残。
但近年来,云计算势不可挡,云端芯片市场呈现爆发式增长,不乏勇者前来破局。
作为一家发源于中科院计算所、背靠多家「国字辈」资本、估值已经来到 30 亿美金的硬核创业公司,寒武纪挑战云端市场的底气十足。
2018 年 5 月,寒武纪发布首颗云端 AI 芯片,并对外透露获得中国前三大服务器浪潮、联想、曙光的订单。据机器之心了解,滴滴、海康威视也已经成为寒武纪的客户。
与此同时,寒武纪成数亿美元 B 轮融资。据机器之心了解,目前寒武纪的估值约为 30 亿美元,与今年 2 月完成 6 亿美元融资后成为「全球最具价值的 AI 芯片公司」的地平线不相上下。
一年后,寒武纪二代芯片已经箭在弦上,这颗积蓄了中科院计算所研发实力四年之久的二代或将为行业带来不小震荡。
机器之心独家获悉,寒武纪二代云端芯片或将于本月公布,同时我们采访到寒武纪技术研发相关知情人士、寒武纪云端芯片客户等多方信源,提前揭秘关于该颗芯片的细节亮点和核心技术。
这回有了中文名
据机器之心了解,寒武纪二代云端 AI 芯片代号为「MLU270」,延续上一代芯片「MLU170」的 MLU(Machine Learning Unit)系列。今年初,寒武纪已经为旗下芯片注册两大中文商标名,分别是「思元」、「玄思」。综上,寒武纪二代云端 AI 芯片中文名为「思元 270」。
在今年的新品议程表上,虽然还名列有其他芯片,但「思元 270」及其板卡将会是重头戏。这也表明寒武纪将从终端向华为等品牌商授权 IP 的模式,转向主打云端市场的芯片方案提供商。
在芯片架构方面,寒武纪二代芯片将从上一代的「MLUv01」升级为「MLUv02」。考虑到视频数据正呈现爆炸性增长,成为数据中心的任务主流,寒武纪在「思元 270」里内建视频解码单元,瞄准海量的视频处理市场专门配置。
据机器之心了解,寒武纪「思元 270」在今年年初研制成功,制程工艺方面明显抛弃了此前终端市场的激进打法,选择仍然沿用台积电 16nm 工艺,定位于「专注云端训练计算」。
对比两大巨头的主流云端产品线,英伟达去年 9 月发布并已发货的 Tesla T4 采用 14nm 工艺,AMD 去年 11 月发布的 Radeon Instinct MI60 和 MI50 采用 7nm 工艺,寒武纪这次似乎希望单纯依靠技术路线取胜,不再如去年对于 7nm 工艺寄予厚望。
「让英伟达难受」
在芯片性能方面,「思元 270」的性能参数有意向业界标杆英伟达 Tesla T4 看齐。
据机器之心目前了解到的情况来看,「思元 270」可支持 INT16/INT8/INT4 等多种定点精度计算,INT16 的峰值性能为 64Tops(64 万亿次运算),INT8 为 128Tops,INT4 为 256Tops。
对比 Tesla T4,FP16 的峰值性能为 65 Tops,INT8 为 130 Tops,INT4 为 260 Tops。
功耗方面,「思元 270」功耗为 75w,与 Tesla T4 持平。
但值得注意的是,这些「理论峰值」不过是纸面规格,真正实测水平相比理论峰值通常有一定缩水。据某大体量计算数据中心负责人,同时也是阿里云早期核心技术研发人员李立表示,「T4 在实测过程中,75w 功耗维持不了多久就降一半频率。」
据该负责人介绍,他在几个月前已经拿到「思元 270」的具体规格和特性,「对比而言,第一代 MLU100 是试水,第二代 270 就聚焦多了,威力非常大,NV 后面会很难受。」
与此同时,该负责人还指出,「寒武纪的方案在某些领域可能不会特别好使,尚待观察。」
核心技术解密
这里需要引入一对运算表示法的概念,整数运算(定点运算)与浮点运算。
它们是计算机计算中最为常用的两种运算表示法,顾名思义,其差异就体现在整数和浮点上,加减乘除运算都是一样的。
整数表示法,即所有位都表示各位数字,小数点固定;浮点表示法,则分成两部分,阶码和尾数,尾数就是数字部分,阶码表示乘幂的大小,也就是小数点位置。所以浮点数在做运算的时候,除了对尾数做加减乘除,还要处理小数点位置。
基于两种不同的运算表示法规则,导致面对同样长度的整数和浮点运算,后者计算模式更为复杂,需要消耗更多的资源去处理,并且二者功耗差距通常是数量级的。 简单来说,就是浮点运算占用的芯片面积和功耗相比于整数运算器都要大很多倍。
但浮点运算又有其不可取代性。首先,定点表示法运算虽然直观,但是固定的小数点位置决定了固定位数的整数部分和小数部分,不利于同时表达特别大的数或者特别小的数,可能「溢出」。
而浮点的精度虽然没有定点大,但是浮点运算的小数点位置可以移动,运算时不用考虑溢出,所以科学计算法一般都使用浮点。所谓「溢出」,指超出某种数据格式的表示范围。
此外,具体到使用 GPU 做训练,业界通常更倾向于浮点运算单元,主要是因为在有监督学习的 BP 算法中,只有浮点运算才能记录和捕捉到训练时很小的增量。 由于训练的部分模块对精度要求比较高,所以通常必须是高精度的浮点运算,比如 FP32 才能搞定,FP16 都难。
综上,虽然浮点运算相比定点运算在功耗、计算速度、性价比等方面都不占优势,但截止目前,浮点计算在云端的训练场景中仍具有不可替代的特性,并且以高精度运算为主。
那么,如何在不增加芯片面积和功耗的前提下,如何大幅提升芯片做训练的运算能力就成为云端训练芯片的主要研课题之一。
参考计算过程相对简单的推断计算思路,目前该领域的 AI 芯片多采用集成大量整数运算器或低精度浮点运算器。
面对计算过程更为复杂的训练计算,业界一直在尝试是否可能用性价比更高的定点运算器实现。「但这个问题在学术界也还没有普适的解决方案。」王一说道。
李立表达了类似的观点, 目前大家的研究热点之一,就在于如何全部的定点单元(比如 INT8)代替浮点单元,或者以主要的定点单元配合少量的高精度浮点计算单元(比如 FP32)做更多的训练任务,目的是达到定点计算的快速度,同时实现接近高精度浮点计算的精度。
谈到目前该方向的研究成果和代表论文,李立表示,行业相关的研究文章已经有一些,不过都不具有普适性。
王一进一步向机器之心透露了关于实现低精度运算的「关键心法」,要做好低精度训练,就要找到一个好的数据表示方法,既能表达最后大的数,又能让 0 附近的小量能够更好地表达,因此这个数据表示可能需要有自适应性,能随着训练的过程调整。
他还补充, 「低精度训练确实未必要是浮点数,只要能把数域表达好,0 附近的小量表达好,什么样的数据表示都可以。」
综上,寒武纪在大幅度提升训练阶段的计算功耗比方面,很有可能采用的是以整数为主的低精度运算,这在目前已公布的 AI 芯片项目中属于首创。
实际上,寒武纪在计算机计算领域的开创精神和技术积淀由来已久。早在 2014 年—2016 年期间,寒武纪创始人兼 CEO 陈天石、陈云霁两兄弟的研究就基本奠定了神经网络芯片的经典设计思路,也就是现在常谈到的 AI 芯片架构。
当时他俩的「DianNao 系列」论文横扫体系结构学术圈: Diannao(电脑)是 ASPLOS'14 最佳论文(亚洲第一次),DaDiannao(大电脑)是 MICRO'14 最佳论文(美国以外国家的第一次)……
而在大洋彼岸,美国两家风头正劲的 AI 芯片公司 Graphcore、GTI(Gyrfalcon Technology, Inc)正是沿用了 DianNao 系列论文的基本思路,采用大量堆叠的简单计算单元以实现复杂的云端计算。(机器之心曾进行过相关报道,《一款芯片训练推理全搞,Hinton 为其背书,Graphcore 完成 2 亿美元融资》、《30 年前的「CNN 梦」在这颗芯片落地,能效比高出 Tesla10 倍 | CES 直击》)
此外,要切数据中心市场的蛋糕,一套完备成熟的软件生态也是其核心竞争力的重要体现。英伟达之所以能够在云端训练领域成为绝对主流,其 CUDA 软件生态的基础功不可没。
据机器之心了解,寒武纪从 2016 年起逐步推出了寒武纪 NeuWare 软件工具链,该平台终端和云端产品均支持,可以实现对 TensorFlow、Caffe 和 MXnet 的 API 兼容,同时提供寒武纪专门的高性库,可以方便地进行智能应用的开发,迁移和调优。
「云芯」之争一触即发
尽管前述了寒武纪的种种硬核技术护体、大资本和客户加持,但想要真正在数据中心市场扎下根,以实现陈天石去年在发布会上谈到的目标:到 2020 年底,力争占据中国高性能智能芯片市场的 30% 份额,仍然面临着异常残酷的市场竞争。
整体上,英特尔在数据中心服务器芯片市场仍然牢牢占据着的 95% 以上份额。
而随着深度学习计算和人工智能技术逐步兴起的云端训练市场,同样被巨头绝对垄断。目前 90% 以上的云端加速采用英伟达 GPU,AMD、FPGA 占据非常小的份额,剩余市场还在被国内外芯片创业公司不断瓜分。
据机器之心了解,近期还有一家国内知名 AI 算法公司将要入局云端推理芯片市场。据德勤最新出炉的报道显示,到 2022 年,全球人工智能训练市场的规模将达到约 170 亿美元,云端推理芯片市场的规模将达到 70 亿美元。
可以预见,2019 年,AI 芯片之争将从端燃及云上,云端的大体量、高增速市场势必迎来更多强劲玩家。
(应采访者需求,文中李立、王一均为化名。)
作者丨顾翎羽
编辑丨周游
地表最强AI芯片要写 汽车 故事。
5月14日,在英伟达公布的GTC 2020录播视频中,CEO黄仁勋正式发布了新一代GPU架构Ampere安培。英伟达每代显卡架构均以顶级科学家命名,这一次以法国物理学家安培命名。这是英伟达推出的第八代GPU架构,较前一代2018年发布的图灵架构性能提升高达20倍。
同时,黄仁勋还带来了基于安培架构GPU A100的DGX-A100 AI系统和面向边缘AI计算的EGX A100。
“这是英伟达八代GPU史上最大的一次性能飞跃”,黄仁勋评价,“安培架构的突破性设计集AI训练和推理于一身。这是有史以来首次可以在一个平台上实现对横向扩展以及纵向扩展的负载的加速。A100将在提高吞吐量的同时,还可以降低数据中心的成本。”
虽然英伟达并未公布安培架构的具体架构细节,但从作为全球首款基于安培架构推出的芯片英伟达 Tesla A100的性能提升来看,A100采用台积电7N制造工艺(7nm工艺),晶体管数量达到542亿,比上一代的211亿提升了257倍。在实际应用上,A100在运行谷歌自然语言处理模型BERT时,训练性能相比上一代提升6倍,推理性能则提升7倍。
此外,该架构还采用了多实例GPU和和第三代NVLink互联技术,前者可以将一个A100 GPU分割为7个单独的GPU,为不同大小的任务提供不同的算力,从而提升利用率和投资回报;后者能使GPU之间的高速连接数量翻倍,可将至多12个A100 GPU连为一个巨型GPU,从而为服务器提供更高效的性能拓展。
目前,这块计算卡已经在全面生产并向全球客户发货,已有包括阿里云、AWS、百度云、思科、Dell Technologies、Google Cloud、HPE、Microsoft Azure和甲骨文在内的公司,正试图将NVIDIA A100整合到他们的服务和产品中。
在此次发布中,英伟达还宣布将联手宝马,推出基于NVIDIA Isaac机器人平台打造提高 汽车 工厂物流效率的物流机器人。此外,小鹏 汽车 新款P7智能电动 汽车 及下一代生产车型中也拟使用NVIDIA DRIVE AGX平台,小马智行将在其自动驾驶Robotaxi车队中使用NVIDIA DRIVE AGX Pegasus平台,法拉第未来(FF)则选择在FF 91电动车上部署NVIDIA DRIVE AGX Xavier平台。
5月15日,FF宣布与英伟达建立长期战略合作伙伴关系,后者将为FF在自动驾驶领域提供持续不断的产品和技术支持。作为目前实力最强的独立GPU供应商之一,英伟达平台正在 汽车 领域一显身手。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)