寒武纪早已声名在外:处在人工智能这一“风口”,却甚少在公众面前主动展示自己,被视作低调的“实干家”,但由于产品过硬,行业地位颇高,谈及AI芯片必然要提及寒武纪,正如其名字是地质纪元上的开创意味,寒武纪是国内AI芯片的拓荒者。
于资本市场而言,寒武纪上市意味着科创板注册制对于“优秀企业”的评判标准走向多元化,意味着创新物种开始在国内资本市场生根发芽。于寒武纪而言,上市不是目的,而是走向公众的手段,有益于远大目标的实现,从而吸引更多人才的加盟——毫无疑问,创新型企业走向星辰大海最重要的资本之一就是人才。
“我们有远大的志向,但长跑才刚刚开始。”三年营收50倍增长,手握40亿元现金,处于“新基建”机会窗口,正如其创始人陈天石所言,寒武纪站在远大征程的起点,而未来是一片蓝海。
投资者等来科创板AI芯片龙头股
2016年3月,陈天石创办寒武纪,2020年3月,上海证券交易所受理寒武纪的科创板上市申请。四年时间,硬 科技 明星企业通过注册制走向公众投资者。
虽然成立时间不长,但寒武纪底蕴深厚,技术与产品性能高居全球领先水平。券商研报介绍,寒武纪是目前国际上少数几家全面系统掌握了智能芯片及其基础系统软件研发和产品化核心技术的企业之一,公司凭借领先的核心技术,较早实现了多项技术的产品化,专门设计的通用型智能芯片架构已达到行业先进水平。
寒武纪正处于快速发展期。2017年度、2018年度和2019年度,其营业收入分别为78433万元、117亿元和444亿元,2018年度和2019年度较前年增幅分别为139205%及27935%,将2019年的营收与2017年作对比,寒武纪在3年间实现了556倍的营收增长。
招股书显示,寒武纪此次公开发行4010万股,占公司发行后总股本的1002%,规模并不大。寒武纪募资了258亿元,主要来自保荐机构跟投子公司和其他战略投资者,后者包括联想(北京)有限公司、美的控股有限公司和OPPO广东移动通信有限公司,均为与寒武纪具有战略合作关系或长期合作愿景的大型企业及其下属企业。
相较于中芯国际等 历史 较长的芯片企业,寒武纪的成功上市开创了硬 科技 独角兽企业在注册制下成功上市的先河,搅动了一池春水。
长期以来,A股市场有着严格且固定的审核标准,这使得一些独具创新型的 科技 企业无法登陆A股市场,转求纳斯达克等更加“宽容”的市场环境。而一些A股上市公司,尽管上市时盈利能力达标,但不乏上市后业绩“变脸”,且后续发展乏力的例证,这并非投资者愿意看到的场景。
璞玉并不以当下的盈利能力作为唯一标准,如何留住可能伟大的企业?设立科创板实行注册制成为众望所归的转折点。寒武纪虽然尚未盈利,但其主要产品性能在与国内外主要竞争对手ARM、英伟达、英特尔以及华为海思的对比中不分上下,部分指标甚至领先对手,展示出了强大的发展潜力。
长跑型选手“放长线钓大鱼”
寒武纪本次募集的资金主要用于新一代云端训练芯片及系统项目、新一代云端推理芯片及系统项目、新一代边缘端人工智能芯片及系统项目和补充流动资金。
自成立以来,寒武纪快速实现了技术的产业化输出,先后推出了用于终端场景的寒武纪1A、寒武纪1H、寒武纪1M系列芯片、基于思元100和思元270芯片的云端智能加速卡系列产品以及基于思元220芯片的边缘智能加速卡。
2017年寒武纪将1A处理器IP授权华为海思使用,搭载在华为Mate10手机上,是全球首款AI手机芯片。思元系列产品也已应用于浪潮、联想等多家服务器厂商的产品中,思元270芯片获得第六届世界互联网大会领先 科技 成果奖。截至2020年2月29日,寒武纪已获授权的境内外专利有65项,PCT专利申请120项。
在人工智能芯片设计初创企业中,寒武纪是少数已实现产品成功流片且规模化应用的公司之一,这亦是其大手笔投入研发的成果。招股书显示,寒武纪2017至2019年研发支出分别为03亿元、24亿元、543亿元,研发投入营收占比连续3年超过了100%,处于行业的较高水平。目前,寒武纪共有研发人员680名,占总员工的7925%,硕士及以上的人员占比超过60%。
对于芯片企业而言,如寒武纪一般巨额的研发投入并不罕见——不论是设计还是流片,芯片企业都需要大量资金,“烧钱”是芯片企业的共同属性。按照普遍的流程,芯片研发不仅耗资巨大,耗时也较长,研究成品还需“Design in”,得到客户的响应与支持,磨合后方可进入大规模出货的营收创造阶段。
硬 科技 企业与互联网企业有着本质的不同,这首先体现在回收研发成本的周期上,不过更需要看到得是,芯片企业一旦研发成功,护城河便是难以轻易被超越的,因此回报也将如研发投入一样,是巨量且长期的。
研发投入换取的“效率”成为决定胜负的关键。陈天石曾表示:“芯片这个赛道,比的就是出产品的速度,以及产品好不好用。”寒武纪进入赛道比较早,幸运地占了先机,产品又得到了客户的认可,在研发效率上已经经过市场的验证,成立四年,寒武纪每年都会推出和迭代新产品,相较于其他国外芯片设计公司与A股上市芯片设计公司以平均约每1-3年的迭代周期,寒武纪的研发能力表现突出。而相较于科创板企业的平均毛利率5349%,寒武纪的综合毛利率也高过平均值。
不过,通往伟大芯片公司的赛程很长,更加需要长跑型选手,投资者也需要建立“放长线钓大鱼”的投资心态。寒武纪在招股书中坦言亏损还将持续一段时间,这也是芯片企业的正常生长进程,尤其AI芯片是人工智能产业的引擎,也是技术要求和附加值最高的环节,为了在以后“钓到更大的鱼”,寒武纪必须持续研发、快速迭代,而耐心的投资者将享受到最大的利益。
AI芯片领跑者“横着长”的生态路径
当部分初创企业靠着一颗芯片艰难维生时,寒武纪已经做出了一把芯片,这是“领跑者”的优势积累。
寒武纪的业务大致分为四部分:智能计算集群、AI推理芯片、IP授权、AI训练芯片。其中前三部分业务在2019年分别产生296亿元、7888万元和6877万元收入,毛利率分别为5823%、7823%、9977%。第四部分业务AI训练芯片是技术的制高点,产品于2020年推出,预计2021年产生收入。
与华为的合作是寒武纪声名鹊起的因素之一,这证实了寒武纪的产品可靠性,而华为选择自研道路,也同时证明了AI芯片这一赛道的重要性。
研报显示,2020年仅智能手机、AR/ VR、无人机等在内的消费电子市场AI智能芯片需求量预计就达到2611亿美元,而智能驾驶有望带来更广阔的市场需求。IDC预测,云端推理和训练对应的智能芯片市场,预计将从2017年的26亿美元增长到2022年的136亿美元,年均复合增长率3922%。ABI Research预计,边缘智能芯片市场规模将从2019年的26亿美元增长到2024年的76亿美元,年均复合增长率2393%。
对于寒武纪而言,与华为的友好竞争有益于长期发展。目前,寒武纪已不存在向单个客户销售比例超过公司销售总额50%的情况。而从寒武纪的收入结构变化可见,其2017-2018年99%的收入来自终端智能处理器IP授权业务,2019年新增云端智能芯片及加速卡、智能计算集群系统业务收入,业务走向多元化。
寒武纪定位于中立、独立的芯片企业,走的是生态型发展路线,而今,经过四年发展,寒武纪“云边端”三条产品线已经完备,接下来仍将不断迭代升级,未来,如英伟达等企业一样,寒武纪将构建出独有的生态,并延伸至交通、教育、医疗等多个细分领域。
“云边端一体的作用就是让开发者省力省心,让我们自己也省力省心。云边端一体意味着,部署在不同场景的芯片在硬件层具有统一的指令集和架构,在软件层具备统一的应用开发环境。这能减少公司和开发者研发不同种类芯片时的成本,是我们生态战略的重要组成部分。”陈天石介绍寒武纪的业务架构时表示。
人工智能时代,新的巨头正在成长,毋庸置疑,寒武纪是种子选手。超过40亿元现金储备以及25亿元募集资金加持,寒武纪无疑是AI计算芯片初创企业中资金实力较雄厚之一,这是其巩固优势的基础。面对征途,寒武纪手握成熟且性能领先的产品,以及生态的雏形,蓝海就在前方,只待乘风破浪。 文/慧瑾
每日经济新闻回答:鲲鹏920最多支持8个ddr控制器
鲲鹏920处理器兼容ARM架构,采用7nm工艺制造,可以支持32/48/64个内核,主频可达26GHz,支持8通道DDR4、PCIe 40和100G RoCE网络。
资讯2019 年 1 1 月 1 8 日, NVIDIA 于今日发布一款参考设计平台,使企业能够快速构建 GPU 加速的 Arm 服务器 , 以满足日益多样化的科学和工业应用需求。 这 开辟 了 高性能计算的新纪元 。
NVIDIA 创始人兼首席执行官黄仁勋在 2 019 国际超级计算大会( SC19 )上宣布推出这款参考设计平台。该平台由硬件和软件基础模块组成,能够满足高性能计算( HPC )社区对于 类型 更加多样化的 C PU 架构日益增长的需求。通过该平台,超级计算中心、超大型云运营商和企业能够将 NVIDIA 加速计算平台的优势与最新的 Arm 服务器平台相结合。
为了构建 这一参考 平台, NVIDIA 与 Arm 及其生态合作伙伴(包括 Ampere 、富士通 和 Marvell ) 联手,以 确保 NVIDIA GPU 与 Arm 处理器 之间 的 无缝协作 。 该参考平台还得益于 与 HPE 旗下公司 Cray 和 HPE 这 两家早期采用 Arm 服务器的供应商之间的紧密合作。此外,许多高性能计算软件公司已使用 NVIDIA CUDA-X 库 来构建可在 Arm 服务器上运行 、 并可 通过 GPU 实现的管理和监控工具。
黄仁勋表示:“高性能计算正在崛起。机器学习和 AI 领域的突破正在重新定义科学研究方法 , 并且可能带来激动人心的新架构。从超大规模云到百万兆级超级计算, NVIDIA GPU 与 A RM 的组合让创新者们能够为不断增加的新应用创建系统。”
Arm IP 产品部门总裁 Rene Haas 表示:“ Arm 正在与生态合作伙伴一 同努力, 为百万兆级的 Arm 系统级芯片提供前所未有的性能和效率。我们与 NVIDIA 合作,将 CUDA 加速带入 到 Arm 架构当中 , 这对于高性能计算社区来说, 具有 里程碑 式的意义 。为了应对全球最复杂的研究 , 挑战并推动嵌入式系统、汽车和边缘细分市场的进一步发展,高性能计算社区已经在部署 Arm 技术。”
今年早些时候, NVIDIA 宣布 为 A rm 带来 C UDA-X 软件平台 。 NVIDIA 此次发布这一参考平台正是对此前承诺的兑现。 根据这一承诺, NVIDIA 正在提供 其 A rm 兼容软件开发套件 的预览版本。该版本包含 NVIDIA CUDA-X 库和加速计算开发工具。
联合整个高性能计算生态中的合作伙伴
除了 使 自己的软件 兼容 Arm 之外, NVIDIA 还与 GROMACS 、 LAMMPS 、 MILC 、 NAMD 、 Quantum Espresso 和 Relion 等 领先的 高性能计算 应用开发 商密切 合作 , 为 A RM 提供 GPU 加速 的 应 程序 用。 为了让 Arm 平台上的应用实现 GPU 加速, NVIDIA 及其高性能计算应用生态合作伙伴编译了大量代码。
为了构建 Arm 生态, NVIDIA 与领先的 Linux 发行商 Canonical 、 Red Hat, Inc 、 SUSE , 以及业内领先的高性能计算基础工具供应商 展开 合作。
几家世界级的超级计算中心已开始测试 GPU 加速 Arm 计算系统,其中包括美国的橡树岭国家实验室和桑迪亚国家实验室、英国布里斯托大学以及日本理化学研究所。
来自生态合作伙伴的支持
“ Ampere 非常高兴能够与 NVIDIA 合作开发 GPU 加速解决方案。该解决方案 将 与高性能、高能效 Ampere 的 服务器处理器实现无缝协作。我们的新产品将使我们的客户能够灵活选择最佳的 NVIDIA GPU 加速,从而高效地运行云、边缘等要求极高的工作负载。”
—— Ampere Computing 董事长兼首席执行官, Renee James
“很高兴看到 NVIDIA 能够如此迅速地为 Arm 服务器带来 CUDA 和 OpenACC 。我们十分希望能够与 NVIDIA 及 其他公司开展密切的合作,在这一架构上编译、分析和调试加速应用。目前,我们已在 4096 核 Arm 系统上证明了这一合作所带来的优势。”
—— EPCC 主任, Mark Parsons 教授
“对于正在不断发展的 Arm 生态而言, NVIDIA 是一个备受欢迎且重要的生态成员。富士通相信,随着我们迈入新的计算时代, NVIDIA 将扩展 Arm 生态系统 , 并保证客户在高性能计算和数据科学 领域 ,尤其是人工智能领域有更多的选择。”
—— 富士通企业执行官兼服务平台业务部副主管, Takeshi Horie
“通过我们与 NVIDIA 的密切合作,部署 Marvell ThunderX2 服务器的客户现在可以使用全套 NVIDIA GPU 加速软件。这对于 Arm 生态系统的加速计算可用性来说 , 是一座重要的里程碑。我们将 继续 一同 将能效提高到一个新的水平,同时为百万兆级时代的众多超级计算和 AI 应用提供出众的性能。”
—— Marvell Semiconductor, Inc 副总裁兼服务器处理器业务部总经理 Gopal Hegde
“在 HPE 、 Marvell 和 NVIDIA 的帮助下,橡树岭国家实验室( Oak Ridge National Laboratory )成功地完成了所负责的工作,迅速升级了我们的 Arm 测试台系统,整合了性能测试并取得了良好的成果。在短短两周内,我们编译并正确运行了约八个领先级应用 程序 ,三个重要的社区库 , 以及常被用于评估 Arm 高性能计算生态的基准套件。根据早期结 果可以看出,这个由 Arm 主导的加速计算生态 的功能 似乎 和 POWER 以及 x86 环境 差不多 。对于一个 Arm 内的加速计算生态而言,这是一个了不起的开始。”
——橡树岭国家实验室国家计算科学中心科学主任, Jack C Wells
“我们与 NVIDIA 已经合作了很长时间。我们很高兴地看到, N VIDIA 实现了自己的承诺,为 Arm 高性能计算社区带来了领先的 CUDA-X 软件堆栈和生态系统。我们已经开始在通过 NVIDIA GPU 加速的 Arm 系统上评估理化学研究所的代码,我们 认为 它将为日本高性能计算和 AI 融合工作负载带来新一轮的创新。”
——日本理化学研究所所长, Satoshi Matsuoka
“由于 NVIDIA 为 Arm 主机 CPU 提供了新的支持,因此现在可以直接使用 Kokkos 和 LAMMPS 。这一结果达到了我们的期望,并且让我们可以借鉴在带有 x86 CPU 的系统中部署 NVIDIA GPU 的经验。”
——桑迪亚国家实验室主要技术人员, Christian Trott
“ NVIDIA 的 Arm 软件堆栈的确可以直接使用。我们之前就已大量使用 Arm 和 NVIDIA 这两个独立的平台,因此我们非常高兴这两者能够组合在一起。相比于我们之前尝试过的 x86 平台, NVIDIA 为 Arm 提供的 GPU 驱动器性能非常之好。能够在如此短的时间内取得这一成果,的确令人惊叹。”
—— 布里斯托大学高性能计算教授 , Simon McIntosh-Smith
鲲鹏920是华为自主研发的基于ARM架构的服务器芯片,它采用了全新的服务器设计理念,并覆盖了从单机到云服务器的全场景应用。Redhat是一种基于Linux *** 作系统的发行版,支持众多硬件架构。在鲲鹏920芯片架构中,也是可以安装Redhat *** 作系统的。
不过需要注意的是,为了确保 *** 作系统能够正常运行,需要满足一些特定的条件,比如需要选择支持ARM架构的Redhat版本,否则将无法正常安装和运行。同时,也需要确保硬件配置和 *** 作系统的兼容性,比如驱动程序是否支持鲲鹏920芯片等。
因此,如果您想在鲲鹏920服务器上安装Redhat系统,建议先了解相关的硬件要求和系统版本要求,再根据自己的实际情况进行选择和安装。如果需要深入了解相关的技术细节,也可以咨询相关领域的专业人士。
兆易创新是国内32bitMCU产品龙头企业,从2019年公司年报来看,MCU的年生产量为109亿颗,销售量为1088亿颗。
到2019年,公司MCU产品累计出货数量已超过3亿颗,客户数量超过2万家。
作为国内最早开始研发国产32位MCU芯片的企业,航顺芯片率先发布调价通知函:MCU系列低于代理商体系价格的,恢复代理商体系价格,所有代理商没给2021年上半年FCST的不能保证供货,给FCST并且预付定金的才能保证供货。
储器EEPROM(24Cxx系列),NOR FLASH(25QXX系列),LCD驱动系列,全面上涨10%—20%。针对调价函,公司内部人士表示,目前整个产业链都在进行价格调整,包括原料、封装、测试等环节。
MCU是微控制单元,又称单片微型计算机或者单片机。产品广泛应用于手机、PC外围、遥控器,汽车电子、工业上的步进马达、机器手臂的控制等。MCU多采用ARM架构,并且这种架构正在抢占X86等老牌架构市场。据悉,苹果新发布的自研芯片M1就是采用基于Arm-ISA的内部处理器和CPU微体系结构。
受益于应用场景十分广泛,且装机需求量大,MCU未来市场规模的增速可期。以汽车这一应用场景来看,MCU是车规级芯片的一种,价值量占车载半导体器件的30%,传统汽车平均每辆车用到70颗以上的MCU芯片,而随着汽车电动化和智能化程度提升,每辆智能汽车有望采用超过300颗MCU。
市值:82亿芯海 科技 成立于2003年,始终专注于高性能MCU、测量算法以及物联网一站式解决方案的研发设计,不仅是兼备模拟信号链和MCU双平台驱动的集成电路设计企业,也是国内少数拥有人工智能+物联网整体解决方案的集成电路设计企业之一。
得益于芯海 科技 对高可靠性MCU技术的深刻理解,以及深耕行业二十多年的深厚经验,其产品已广泛应用于智慧 健康 、压力触控、智慧家居、工业测量、通用微控制器等众多领域。
客户不仅全面覆盖了包括中兴、小米、vivo、OPPO、海尔、美的等国内主流终端品牌,还一举成为华为鸿蒙生态战略合作伙伴。
这背后,芯海对研发的投入功不可没。相关数据显示,2018年以来,公司的研发费率基本在20%左右,在同行上市公司中领先。其中,2020年,研发费用同比增加4562%,占公司营业收入的2051% ,申请专利高达591项。
而进入2021年以来,芯海 科技 在MCU、模拟信号链以及 健康 测量AIOT等方面的需求持续增长。其中,高性能通用32位MCU已实现大规模量产,广泛应用于车载中控、便携医疗、工业测量等应用领域,并开始导入通信光模块、手机、数字传感器等领域标杆客户。
而鉴于公司所处赛道空间的高广阔性,目前公司业务皆属于百亿美元大赛道,风哥认为芯海 科技 未来发展着实可期。
市值:195亿
中颖电子成立于1994年,主要从事消费类和工业控制类电子芯片的研发、设计与销售。核心产品广泛应用于家电主控、锂电池管理、电机控制、智能电表及物联网领域。不仅是国内领先的集成电路IC设计企业,更是国内规模最大的MCU芯片供应商之一。
相关数据显示,中颖电子2020年实现净利润同比增长106%。这其中贡献最大的当属MCU芯片业务。截止2020年,MCU业务在总营收中占比高达93%。这背后关键得益于中颖在研发投入上的大手笔。2021年第一季度,中颖研发投入高达602036万元,占营业收入1965%,同比增长6905%。而得益于在工控MCU芯片和OLED显示驱动芯片新产品开发上的深耕,加速加大IOT研发投入,长期深入布局 汽车 电子相关技术。至今不仅累计获得国内外授权专利105项,其中103项为发明专利,还相继打入各大国际家电巨头的供应链体系。
相关机构预测,鉴于当前MCU芯片供应持续紧张所导致的货源紧缺,以及广阔的国产替代空间,作为物联网关键部件的MCU芯片将持续受益。而中颖作为本土MCU领军企业,风哥觉得其有望凭借MCU在物联网行业的多元化布局,充分把握半导体景气上行机遇。
市值:1136亿
兆易创新成立于2005年,是国内领先的无晶圆厂半导体公司,核心产品线涵盖闪存、32位通用型MCU、智能人机交互传感器芯片及整体解决方案。不仅常年占据国内闪存市场榜首,更是全球第三大闪存供应商。研发能力行业领先。累计出货量已超过5亿颗,合作客户超过2万家。
相关数据显示,2020年,兆易创新实现净利润881亿元,同比增长451%。而当年公司的研发投入达到378亿元,同比增长6433%。这部分增量,正是源自公司在MCU业务上的发力。实际上,早在2013年,兆易创新就推出了国内首款基于Arm Cortex-M3内核的32位MCU。
2019,兆易又推出了全球首颗基于risc-V内核的通用MCU,GD32V系列。紧接着就在去年,兆易还启动了车规级MCU的研发,项目完成后,预计将满足 汽车 级产品认证和车身控制系统以及辅助驾驶系统。
而就在前不久,公司第一颗自有品牌的DRAM产品正式推出,实现了从设计、流片,到封测、验证的全国产化,并且公司DRAM产品下游和当前的客户群体有相当高的重合度,让公司在整个客户的渠道和技术支持等资源上有很高协同性。
而伴随国产替代加速以及全球物联网、可穿戴市场需求的增长,风哥觉得兆易创新未来业绩前景值得期待。
机器之心报道
机器之心编辑部
「只需一张 GeForce 显卡,每个学生都可以拥有一台超级计算机,这正是 Alex Krizhevsky、Ilya 和 Hinton 当年训练 AI 模型 AlexNet 的方式。通过搭载在超级计算机中的 GPU,我们现在能让科学家们在 youxian 的一生之中追逐无尽的科学事业,」英伟达创始人兼首席执行官黄仁勋说道。
4 月 12 日晚,英伟达 GTC 2021 大会在线上开始了。或许是因为长期远程办公不用出门,人们惊讶地看到在自家厨房讲 Keynote 的黄老板居然留了一头摇滚范的长发:
如果你只是对他的黑色皮衣印象深刻,先对比一下 2019、2020 和 2021 的 GTC,老黄气质越来越摇滚。如此气质,黄仁勋今天推出的新产品肯定将会与众不同。
「这是世界第一款为 terabyte 级别计算设计的 CPU,」在 GTC 大会上,黄仁勋祭出了英伟达的首款中央处理器 Grace,其面向超大型 AI 模型的和高性能计算。
英伟达也要做 CPU 了
Grace 使用相对能耗较低的 Arm 核心,但它又可以为训练超大 AI 模型的系统提供 10 倍左右的性能提升。英伟达表示,它是超过一万名工程人员历经几年的研发成果,旨在满足当前世界最先进应用程序的计算需求,其具备的计算性能和吞吐速率是以往任何架构所无法比拟的。
「结合 GPU 和 DPU,Grace 为我们提供了第三种基础计算能力,并具备重新定义数据中心架构,推进 AI 前进的能力,」黄仁勋说道。
Grace 的名字来自于计算机科学家、世界最早一批的程序员,也是最早的女性程序员之一的格蕾丝 · 赫柏(Grace Hopper)。她创造了现代第一个编译器 A-0 系统,以及第一个高级商用计算机程序语言「COBOL」。计算机术语「Debug」(调试)便是她在受到从电脑中驱除蛾子的启发而开始使用的,于是她也被冠以「Debug 之母」的称号。
英伟达的 Grace 芯片利用 Arm 架构的灵活性,是专为加速计算而设计的 CPU 和服务器架构,可用于训练具有超过 1 万亿参数的下一代深度学习预训练模型。在与英伟达的 GPU 结合使用时,整套系统可以提供相比当今基于 x86 CPU 的最新 NVIDIA DGX 快 10 倍的性能。
目前英伟达自家的 DGX,使用的是 AMD 7 纳米制程的 Rome 架构 CPU。
据介绍,Grace 采用了更为先进的 5nm 制程,在内部通信能力上,它使用了英伟达第四代 NVIDIA NVLink,在 CPU 和 GPU 之间提供高达 900 GB/s 的双向带宽,相比之前的产品提升了八倍。Grace 还是第一个通过错误校正代码(ECC)等机制利用 LPDDR5x 内存系统提供服务器级可靠性的 CPU,同时提供 2 倍的内存带宽和高达 10 倍的能源效率。在架构上,它使用下一代 Arm Neoverse 内核,以高能效的设计提供高性能。
基于这款 CPU 和仍未发布的下一代 GPU,瑞士国家超级计算中心、苏黎世联邦理工大学将构建一台名为「阿尔卑斯」的超级计算机,算力 20Exaflops(目前全球第一超算「富岳」的算力约为 0537Exaflops),将实现两天训练一次 GPT-3 模型的能力,比目前基于英伟达 GPU 打造的 Selene 超级计算机快 7 倍。
美国能源部下属的洛斯阿拉莫斯国家实验室也将在 2023 年推出一台基于 Grace 的超级计算机。
GPU+CPU+DPU,三管齐下
「简单说来,目前市场上每年交付的 3000 万台数据中心服务器中,有 1/3 用于运行软件定义的数据中心堆栈,其负载的增长速度远远快于摩尔定律。除非我们找到加速的办法,否则用于运行应用的算力将会越来越少,」黄仁勋说道。「新时代的计算机需要新的芯片、新的系统架构、新的网络、新的软件和工具。」
除了造 CPU 的大新闻以外,英伟达还在一个半小时的 Keynote 里陆续发布了大量重要软硬件产品,覆盖了 AI、 汽车 、机器人、5G、实时图形、云端协作和数据中心等领域的最新进展。英伟达的技术,为我们描绘出了一幅令人神往的未来愿景。
黄仁勋表示,英伟达全新的数据中心路线图已包括 CPU、GPU 和 DPU 三类芯片,而 Grace 和 BlueField 是其中必不可少的关键组成部分。投身 Arm 架构的 CPU,并不意味着英伟达会放弃原有的 x86、Power 等架构,黄仁勋将英伟达重新定义为「三芯片」公司,覆盖 CPU、GPU 和 DPU。
对于未来的发展节奏,黄仁勋表示:「我们的发展将覆盖三个产品线——CPU、GPU 和 DPU,以每两年一次更新的节奏进行,第一年更新 x86,第二年就更新 Arm。」
最后是自动驾驶。「对于 汽车 而言,更高的算力意味着更加智能化,开发者们也能让产品更快迭代。TOPS 就是新的马力,」黄仁勋说道。
英伟达将于 2022 年投产的 NVIDIA 自动驾驶 汽车 计算系统级芯片——NVIDIA DRIVE Orin,旨在成为覆盖自动驾驶和智能车机的 汽车 中央电脑。搭载 Orin 的量产车现在还没法买到,但英伟达已经在为下一代,超过 L5 驾驶能力的计算系统作出计划了。
Atlan 是这家公司为 汽车 行业设计的下一代 SoC,其将采用 Grace 下一代 CPU 和下一代安培架构 GPU,同时也集成数据处理单元 (DPU)。如此一来,Atlan 可以达到每秒超过 1000 万亿次(TOPS)运算次数。如果一切顺利的话,2025 年新生产的车型将会搭载 Atlan 芯片。
与此同时,英伟达还展示了 Hyperion 8 自动驾驶 汽车 平台,业内算力最强的自动驾驶 汽车 模板——搭载了 3 套 Orin 中心计算机。
不知这些更强的芯片和系统,能否应付未来几年里人们对于算力无穷无尽的需求。在 GTC 2021 上,英伟达对于深度学习模型的指数增长图又更新了。「三年间,大规模预训练模型的参数量增加了 3000 倍。我们估计在 2023 年会出现 100 万亿参数的模型。」黄仁勋说道。
英伟达今天发布的一系列产品,让这家公司在几乎所有行业和领域都能为你提供最强大的机器学习算力。在黄仁勋的 Keynote 发表时,这家公司的股票一度突破了 600 美元大关。
「20 年前,这一切都只是科幻小说的情节;10 年前,它们只是梦想;今天,我们正在实现这些愿景。
英伟达每年在 GTC 大会上发布的新产品,已经成为了行业发展的风向。不知在 Grace 推出之后,未来我们的服务器和电脑是否会快速进入 Arm 时代。
近日,AMD首席财务官Devinder Kumar在一场会议上表示,AMD随时准备在需要的情况下生产Arm芯片,并透露有客户希望与AMD合作开发基于Arm的解决方案。目前,在数据中心市场中,Arm正在受到越来越多的超大规模数据中心企业的青睐。比如亚马逊正在使用自研的Graviton Arm服务器芯片,微软、甲骨文、腾讯、百度等在使用Ampere Computing的Altra系列Arm架构芯片。
在被问到Arm架构与x86架构在服务器市场的竞争格局时,Kumar认为无论是x86还是Arm,甚至是其他领域,这些都是AMD专注的投资领域。与此同时,Kumar表示AMD依然相信x86是AMD在服务器领域的优势,但对于AMD而言,最终目的都是向客户提供高性能的计算解决方案。“我们与Arm也有非常好的关系,我们了解到,一些客户希望与我们合作使用非x86架构的解决方案,尽管我们认为AMD的x86架构在服务器领域有优势,但我们愿意与客户合作,交付他们所需的解决方案。”
值得一提的是,AMD其实早已获得Arm IP授权,并且在Arm架构方面也有一定的经验。在2012年,AMD宣布了一个“违背祖宗的决定”,表示“将会设计基于64-bit ARM架构的处理器,首先从云和数据中心服务器领域开始。”
很快,2014年AMD就发布了第一款Arm处理器Opteron A1100系列,基于64-bit ARM Cortex-A57架构,构型为4核或8核可选,频率超过2GHz。
在这一年,AMD还雄心勃勃地提出了史无前例的“Project Skybridge”工程,希望实现x86、Arm两种架构的针脚兼容。AMD首席架构师Jim Keller大神也在2014年着手开发自主设计的64位ARMv8架构核心——K12项目,AMD希望将其应用于高密度服务器、嵌入式、半定制、超低功耗等领域。
不过,伴随着Jim Keller离职出走特斯拉,2016年Opteron A1100系列平台开发板开售之后,除了据称K12架构被用在安全用途的嵌入式MCU,但未进入市场之外,AMD的Arm架构项目就没有其他更多消息了。
从目前Arm架构的应用以及AMD业务范围上猜测,如果AMD决定投入到Arm架构芯片中,一是提供现成的标准数据中心或桌面高性能处理器解决方案,二是通过定制业务,让客户根据需求定制Arm芯片。
对于服务器处理器而言,定制化确实是目前的一个趋势,最显著的例子就是亚马逊。因为数据中心可以通过定制ASIC来提高完成特定任务的效率,在全球数据中心需求不断增长的如今,也越来越多超大规模数据中心企业采用定制的ASIC来取代以往的通用处理器,以提高运行效率。
而AMD的竞争对手英伟达已经在Grace服务器CPU中使用Arm架构,甚至已经着手收购Arm,只待各国监管部门通过;英特尔也正在为Arm架构芯片提供代工业务。
另一方面,Arm处理器在PC端的份额已经创下 历史 记录,并在不断增长中。不过相比于数据中心处理器,PC端使用Arm架构似乎未有展现出太大的必要性。作为Arm架构的领军者,苹果M1芯片相比AMD最新的移动端x86芯片依然存在一定差距,对于AMD而言,在PC端继续追赶英特尔的x86处理器市场份额才是他们的首要任务。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)