36氪首发|瀚博半导体获16亿B1、B2轮融资,主攻高端算力芯片

36氪首发|瀚博半导体获16亿B1、B2轮融资,主攻高端算力芯片,第1张

近日,36氪获悉,芯片设计独角兽企业「瀚博半导体」获16亿人民币的B-1和B-2轮融资,由阿里巴巴集团、人保资本、经纬创投和五源资本联合领投,国寿科创基金、Mirae Asset (未来资产)、基石资本、慕华科创基金(清华产业背景),以及老股东红点中国、耀途资本和元木资本跟投。

在这轮融资中,瀚博半导体引入了继快手之后的第二家互联网战略投资人——阿里巴巴。此次融资后,公司将持续完善产品矩阵,包括SV100系列产品线(云边AI推理和视频产品线)在国内外市场的大规模落地,加大图形GPU产品线的研发投入,并开始布局其他智能产品线。

瀚博半导体成立于2018年12月,公司位于上海,瀚博半导体创始人&CEO钱军提到,瀚博要做的是为像素世界提供算力的高端芯片。

根据Gartner的预测数据,全球人工智能芯片市场规模将在未来五年内呈现飙升, 从2018年的427亿美元成长至343亿美元,增长超过7倍。

AI芯片在2021年掀起融资热潮,国外市场有SambaNova Systems、Cerebras Systems、英国AI芯片独角兽Graphcore、Groq、以色列的AI芯片独角兽Hailo Technologies等AI芯片独角兽,国内也有着寒武纪、地平线等企业。

五源资本合伙人刘凯表示:“作为AI技术的底层驱动,全球的AI芯片领域都在经历爆发性的增长。我们观察到,在美国,自2016年前后诞生了几十家AI芯片的初创公司,经历了近5年的发展,这一领域在美国已经成长出众多独角兽级别的创业企业。在业务进展层面,不同的AI芯片企业围绕DSA架构,纷纷快速迭代产品、形成差异化竞争能力,且大部分企业已经进入行业落地阶段,未来数年将进入大规模量产出货阶段。”

瀚博半导体的产品矩阵共有三块,一是AI推理+视频加速卡,2021年7月,瀚博半导体世界人工智能大会上发布了公司首款服务器级别AI推理芯片SV102及通用加速卡VA1,该芯片即将量产上市;二是图形GPU,主要用于云 游戏 、云桌面、云渲染相关的一些图形产品;三是其它智能产品。

据悉,瀚博半导体的首款云端推理AI芯片SV102已在和战略合作伙伴合作,即将量产上市。

瀚博在团队优势上,一是,创始团队主要出自AMD第一颗7nm GPU团队,有着丰富的芯片设计、量产经验,整个团队曾有上百颗GPU流片的经验;

二是,瀚博首先选择了AI+视频的赛道。钱军总曾在发布会上表示,计算机视觉任务占据了AI市场的大部分,视频流占据数据流的 70%,而且比例持续攀升,市场空间大,且有落地应用场景。

瀚博半导体创始人&CEO钱军表示:“在即将过去的2021年,我们亲眼见证了芯片核心技术在各类新兴应用领域焕发的勃勃生机,这是半导体从业者最好的时代。伴随着互联网视频直播、短视频、计算机视觉、自然语言处理、云 游戏 、云桌面、云渲染、元宇宙等现象级应用的极速发展,数据中心算力需求的不断增加,下游客户对芯片、硬件、软件等各个方面都有了更高的期待。瀚博将继续延展各条产品线,进一步扩大行业领先优势。”

在创始团队上,公司创始人兼CEO钱军有25年以上高端芯片设计经验,离职前在AMD任高级总监,全面负责GPU(图像处理器)和AI服务器芯片设计和生产,现在市场上绝大多数的AMD Radeon图像处理器和AI服务器芯片都是由其带队开发。

创始人兼CTO张磊是前AMD Fellow,有23年以上芯片和IP架构设计的丰富经验,负责AI、深度学习,视频编解码和视频处理领域。

公司目前拥有超300名研发工程师,分布于上海、北京、深圳、西安、成都和加拿大多伦多。

人保股权公司投资部负责人舒琬婷表示:“瀚博首款芯片聚焦AI加速和视频处理,可大幅降低互联网公司数据中心TCO,能有效解决互联网在线视频厂商的痛点,具有广阔的市场空间。公司创始人及核心团队具备世界顶级的算法、芯片设计及量产能力,在芯片设计、AI和视频处理领域积累深厚。异构计算加速卡将在互联网视频直播、短视频、云 游戏 、云桌面、云渲染等场景中发挥关键作用,公司的产品发展潜力巨大。”

经纬创投合伙人王华东表示:“视频类产品已经成为现在用户端使用的第一大应用类别,行业需要更高实时性、更强算力的视频处理技术及对应的集成电路产品。瀚博具有稀缺的高性能AI+视频集成电路研发能力,同时在核心IP沉淀的积累也能扩展新的集成电路类别。”

机器学习,特别是深度学习,迫使重新评估芯片和系统的设计方式,这将改变未来几十年的行业方向。
从芯片到软件再到系统,计算领域将在未来几年内因机器学习的普及而发生巨大变化。我们可能仍然将这些计算机称为“通用图灵机”,正如我们已有八十年或更长时间。但在实践中,它们将与迄今为止构建和使用的方式不同。
任何关心计算机工作的人以及对所有形式的机器学习感兴趣的人都会感兴趣。
今年2月,Facebook负责人工智能研究的负责人Yann LeCun在旧金山举行的国际固态电路会议上发表了演讲,该会议是世界上运行时间最长的计算机芯片会议之一。在ISSCC,LeCun明确了计算机技术对人工智能研究的重要性。 LeCun说:“硬件功能和软件工具既激励又限制了AI研究人员想象并将允许自己追求的想法类型,我们所掌握的工具比我们承认的更能影响我们的想法”。
不难看出情况是怎样的。从2006年开始,深度学习的兴起不仅是因为大量数据和机器学习中的新技术,例如“辍学”,而且还因为计算能力越来越强。特别是,越来越多地使用来自Nvidia的图形处理单元或“GPU”,导致计算的更大并行化。这使得对比以往更大的网络的培训成为可能。20世纪80年代提出的“并行分布式处理”的前提,即人工网络的节点同时被训练,最终成为现实。
一些人认为,机器学习现在有望接管世界上大部分的计算活动。在2月份的ISSCC期间,LeCun 向ZDNet讲述了计算方向的变化。LeCun说:“如果你走了五年,未来十年,你会看到计算机花费时间做些什么,大多数情况下,我认为他们会做一些像深度学习这样的事情 - 就计算量而言”。他还指出,深度学习可能无法通过收入占据计算机销售的大部分,但是,“就我们如何每秒花费我们的毫瓦或我们的运营而言,他们将花在神经网络上。
深度学习成倍增长
随着深度学习成为计算的焦点,它正在推动当今计算机能够做到的界限,在某种程度上推动神经网络进行预测的“推理任务”,但对于训练神经网络更是如此,计算密集型功能。

注:据OpenAI称,自2012年以来,深度学习网络对计算的需求每35个月翻一番。
诸如OpenAI的GPT-2之类的现代神经网络需要并行训练超过十亿个参数或网络权重。作为Facebook的热门机器学习培训库PyTorch的产品经理,5月份告诉ZDNet,“模型越来越大,它们真的非常大,而且培训成本非常高。” 如今最大的模型通常不能完全存储在GPU附带的存储器电路中。
此外:谷歌表示人工智能的“指数”增长正在改变计算的本质
计算周期的需求速度越来越快。根据OpenAI提供的数据,早在2012年创建的令人尊敬的AlexNet图像识别系统在总培训时间内耗费了相当于每秒1000万次浮点运算的“千万亿次浮点运算”,总时间达到一天。但AlphaZero是由谷歌的DeepMind在2016年建立的神经网络,它击败了世界上的国际象棋冠军,并且每秒消耗超过一千天的千万亿次飞越。AlexNet和AlphaZero之间计算周期的增加使得每35个月的计算消耗量翻了一番。这是2016年收集的数据。到目前为止,步伐无疑会增加。
计算机芯片危机
世界甚至没有佩戴千万亿次筹码,用于深度学习培训的顶级芯片,如Nvidia的Tesla V100,每秒运行112万亿次。因此,你必须运行其中的八天1000天,否则将许多人聚集成一个耗费越来越多能量的系统。
更糟糕的是,近年来芯片改进的步伐已经触底。正如加州大学伯克利分校教授大卫帕特森和英国航空公司董事长约翰轩尼诗在今年早些时候的一篇文章中所指出的那样,摩尔定律即每十二至十八个月芯片功率增加一倍的经验法则,已经耗尽了气体。英特尔长期以来一直否认这一点,但数据是帕特森和轩尼诗的一面。正如他们在报告中提到的那样,芯片性能现在每年仅增长3%。

这两位作者都认为,这意味着芯片的设计,众所周知,它们的架构必须彻底改变,以便从不会产生性能优势的晶体管中获得更高的性能。(帕特森帮助谷歌创建了“Tensor Processing Unit”芯片,因此他对硬件如何影响机器学习非常了解,反之亦然。)
由于处理器的改进停滞不前,但机器学习需求每隔几个月翻一番,就必须付出代价。令人高兴的是,如果以正确的方式看待,机器学习本身可以成为芯片设计的福音。因为机器学习需要很少的遗留代码支持 - 它不必运行Excel或Word或Oracle DB - 并且正如他们所说的,对于芯片设计师,由于其最基本计算的高度重复性,机器学习是一种绿地机会。
建造一台新机器
卷积神经网络和长期短期记忆网络的核心,深度学习的两个主要支柱,甚至在像谷歌的变形金刚这样的更现代的网络中,大多数计算都是线性代数计算,称为张量数学。最常见的是,将一些输入数据转换为矢量,然后将该矢量乘以神经网络权重矩阵的列,并将所有这些乘法的乘积相加。称为乘法相加,这些计算使用所谓的“乘法 - 累加”电路或“MAC”在计算机中呈现。因此,只需改进MAC并在芯片上创建更多的MAC来增加并行化,就可以立即改善机器学习。

主导AI培训的Nvidia和其CPU主导机器学习推理的英特尔都试图调整他们的产品以利用那些原子线性代数函数。Nvidia为其Tesla GPU添加了“张量核心”,以优化矩阵乘法。英特尔已花费300亿美元收购那些从事机器学习的公司,包括Mobileye,Movidius和Nervana Systems,其中最后一个应该在某个时候导致“Nervana神经网络处理器”,尽管有延迟。
到目前为止,这些举措并不能满足机器学习的需求,例如Facebook的LeCun。在2月与ZDNet聊天期间,LeCun认为,“我们需要的是竞争对手,现在,你知道,主导供应商Nvidia”。 他还指出,这不是因为Nvidia没有做出好的筹码。这是“因为他们做出了假设,并且拥有一套不同的硬件可以用来做当前GPUS擅长的补充事物,这样做会很不错。
另外:为什么人工智能报告如此糟糕?
他说,其中一个有缺陷的假设是假设训练神经网络将是一个可以 *** 作的“整齐阵列”的问题。相反,未来的网络可能会使用大量的网络图,其中神经网络的计算图的元素作为指针流式传输到处理器。LeCun表示,芯片必须进行大量的乘法增加,但对于如何将这些乘法增加呈现给处理器的期望不同。
作为TPU芯片贡献者之一的谷歌软件工程师Cliff Young,去年10月在硅谷举行的芯片活动上发表了主题演讲时更直言不讳。Young说:“很长一段时间,我们都拒绝了,并说英特尔和Nvidia非常擅长构建高性能系统,”“五年前我们超越了这个门槛”。
创业公司的崛起
在这个漏洞中,新的芯片来自谷歌等人工智能巨头,还有一大批风险投资支持的创业公司。
除了谷歌的TPU,现在已经进行了第三次迭代,微软还有一个可编程处理器,一个名为Project Brainwave的“FPGA”,客户可以通过其Azure云服务租用它。亚马逊表示,它将在今年晚些时候推出自己的定制芯片,名为“Inferentia”。当LeCun在2月份与ZDNet谈话时,他提到Facebook有自己的筹码。
他指出,像谷歌和Facebook这样拥有大量产品的公司,对你自己的引擎工作是有道理的,这方面有内部活动。
创业公司包括Graphcore,一家位于布里斯托尔的五年创业公司,一个位于伦敦西南一个半小时的港口城市; Cornami,Effinix和Flex Logix,所有这些都是由ZDNet描述的和硅谷的洛斯阿尔托斯的s系统公司仍然处于秘密模式。
许多这些初创公司都有一个共同点,那就是大大增加用于矩阵乘法的计算机芯片区域的数量,即MAC单元,以便在每个时钟周期内挤出最多的并行化。Graphcore是所有初创公司中最远的,是第一个真正向客户发送生产芯片的公司。关于它的第一个芯片最引人注目的事情之一是大量的内存。为了纪念世界上第一台数字计算机,Colossus 被称为芯片,面积巨大,面积为806平方毫米。首席技术官Simon Knowles称其为“迄今为止最复杂的处理器芯片”。

Colossus由1,024个被称为“智能处理单元”的独立核心组成,每个核心都可以独立处理矩阵数学。众所周知,每个IPU都有自己的专用内存,256千字节的快速SRAM内存。总共有304兆字节的内存是芯片中最常用的内存。
没有人知道芯片上存在如此多的内存会如何改变构建的神经网络的种类。可能是通过访问越来越多的内存,访问速度非常低,更多的神经网络将专注于以新的和有趣的方式重用存储在内存中的值。
软件难题
对于所有这些芯片的努力,问题当然是由于该公司的“CUDA”编程技术,他们没有为Nvidia建立多年的软件。Graphcore和其他人的答案将是双重的。一个是用于机器学习的各种编程框架,例如TensorFlow和Pytorch,提供了一种避免芯片本身细节并专注于程序结构的方法。所有进入市场的芯片都支持这些框架,他们的创造者认为这些框架与Nvidia的竞争环境。
第二点是Graphcore和其他人正在构建自己的编程技术。他们可以证明他们的专有软件既可以转换框架,也可以智能地将并行计算分配给芯片上的众多MAC单元和向量单元。这就是Graphcore为其“Poplar”软件所做的论证。Poplar将神经网络的计算图分解为“codelets”,并将每个codelet分配到Colossus的不同核心,以优化并行处理。

在过去的二十年中,大数据和快速并行计算成为常态,推动了机器学习,带来了深度学习。下一波计算机硬件和软件可能是关于大量的内存和神经网络,它们是动态构建的,以利用高度并行的芯片架构。未来看起来很有趣。
本文翻译自:AI is changing the entire nature of compute(Machine learning, especially deep learning, is forcing a re-evaluation of how chips and systems are designed that will change the direction of the industry for decades to come)

台积电作为晶圆代工龙头企业,是全球最早量产7nm工艺的厂商,早在2018年4月就开始通过7nm工艺生产芯片,此后台积电7nm工艺为全球数十家客户服务,生产芯片超过10亿颗。

在这个过程中,台积电7nm工艺也让客户们获利颇多,比如AMD就依靠台积电的7nm工艺翻身了,还有联发科这两年推出的处理器稳定性也强了许多,甚至Intel都在找台积电代工。

尽管现在台积电5nm工艺已经实现大规模生产,但7nm工艺依然占据着不可忽视的地位,现在台积电更是一举突破7nm工艺的极限,做出了一款集成度超过600亿颗晶体管的芯片。

日前,总部位于英国的AI芯片公司Graphcore发布了一款IPU产品Bow,据官方介绍, 这颗Bow IPU与上代相比,性能提升40% ,能耗比提升了16%,电源效率也提升16%。

而台积电就是Bow IPU的代工厂,但这颗IPU性能的全面提升,并非采用了更先进的制程,而是采用了和上一代IPU相同的台积电7nm工艺。

能够有如此大的提升,则是因为这颗IPU 采用了3D WoW硅晶圆堆叠技术,从而实现了性能和能耗比的全面提升。

作为全球首款采用台积电3D WoW技术的芯片,Bow IPU通过这次的变化,证明了 芯片性能的提升并不一定要提升工艺,也可以升级封装技术,向先进封装转移。

得益于台积电3D WoW技术的加持, Bow IPU单个封装中的晶体管数量也达到了前所未有的新高度,拥有超过600亿个晶体管, 这是非常惊人的提升。

官方介绍称,Bow IPU的变化是这颗芯片采用3D封装,晶体管的规模有所增加,算力和吞吐量均得到提升,其具有350 TeraFLOPS的人工智能计算的性能,是上代的14倍,吞吐量从475TB提高到了65TB。

从这颗Bow IPU芯片的升级可以看出,过去我们理论认为芯片性能的提升很大程度上取决于工艺制程的进步,现在看来,其实也有新方向可以选择。

随着工艺制程的不断升级,现在的技术已经越来越逼近物理极限了, 摩尔定律逐渐失效,业界不得不通过寻找新的技术方向去延续摩尔定律,而3D封装正是被业界广泛看好的方向。

其实对于中国本土的晶圆工艺来说,3D封装也是正确的方向, 由于中国大陆在先进光刻机采购问题上存在短板,导致芯片性能存在一定程度不足。

中芯国际虽然有能力攻克7nm工艺,但没有先进光刻机一切都是零,在这样的背景下, 如果将3D封装技术用在28nm和14nm工艺上,或许能够有效提升性能和能耗比。

最近automobil-industrie网站上的2019年全球前100位汽车供应商名单出来了,同时在该网站上看到了这篇文章,里头分析了汽车供应商的变化趋势,在此翻译出来。(原文地址见文末)

(来自Automobile-industrie报告)

情况还是一团糟:特朗普去年继续呼吁反对德国,中国和日本的不公平贸易做法;英国脱欧对英国和欧洲汽车业的影响仍未消除;连汽车销量增长总是两位数的中国在去年也出现了停顿;有关排放问题的讨论——颗粒,氮氧化物,可持续性,柴油丑闻——继续令消费者不安。总之,汽车行业的问题依旧存在。

尽管面临种种困难,但排名前100位的供应商在2019年的销售额增长了43%(上一年为+ 64%)。与上一年相比,有64家公司的销售增长。但是2019年的销售增长主要归功于大型公司的收购和兼并:

2019年的这个名单中,最后一名公司的营业额达到27亿欧,这下降到了2017年的水平;2018年为29亿欧元。2019年全球前100位汽车供应商的总产值为9180亿欧元。

前100位中日本的27家供应商小幅增长了28%,总营业额为2460亿欧元。德国在前100位中占了18位,总营业额为2050亿欧元,与2018年相比下降了05%。排在第三的是美国,美国占19家,总营业额是1340亿欧元,增长了 26%这19家美国公司的增长率为+ 26%,总销售额为1,340亿欧元,名列第三。紧随其后的是这六个国家的供应商,分别为法国(758亿欧元,增长49%),韩国(541亿欧元,增长194%)和中国(476亿欧元,增长125%)。收购和结构重组是这三个国家供应商占比强劲增长的主要原因。

汽车行业的转型在2019年显著加快,并且开始显露如何从根本上改变行业。CASE(联网汽车,自动驾驶,共享出行,电动出行)已经出现在众多供应商及其战略部门的高层管理人员的脑海中。围绕未来核心技术,公司拆分和旧技术清算的斗争不会停止,现在显然有很多不再被需要的技术仍在全速发展。大陆集团(Continental)将动力总成拆分为Vitesco公司,蒂森克虏伯(Thyssen Krupp)汽车业务的重组,Borg Warner计划收购Delphi Technologies,Tenneco收购Federal Mogul,ZF Friedrichshafen和Knorr-Bremse在Wabco进行的长期收购战,分拆由江森自控(Johnson Controls)负责并随后解散-所有这些都表明了接下来几年的变化。

在过去的三年中,仅德国的五家主要汽车供应商博世,大陆集团,采埃孚,马勒和舍弗勒就已经收购了40多家初创和高科技公司或为其提供了风险投资:Aimotive,Here Technologies,Faircom,Splitting Fares,Digi Lens,EGo Moove,Paravan Technologie,Deep Map,Ceres Power,Haptronik,Inspekto,Graphcore,Auto AI Technology,Ubitricity,“ 2getthere”,Xtronic,Teralytics,Cartica,Nikola,Power Cell等。以收购和投资高科技公司这种方式就像配齐烹饪配方的成分一样,确保汽车工业的未来的技术:自动控制的运动控制系统和执行器组件,闪光激光雷达技术,ITS解决方案,电动化微动性,电动车的充电网络,无人驾驶电动穿梭车,大数据分析师,GNSS定位服务,停车位应用,为电动汽车充电的电子漫游平台,汽车的IT安全,用于增强现实和虚拟现实的全息投影技术,固体氧化物燃料电池技术,自主机器图像处理,用于对象识别的机器学习,3-D超声波传感器,基于激光的3-D传感器等。

一个事实 :大型供应商和中型公司之间的差距正在扩大。如今中型公司不再有机会在关键的创新领域迎头赶上。高净值的技术,软件研发能力,遍布全球的研发中心,以及和大型高科技公司三星,苹果,微软等合作的能力,只有前100名靠前的公司才拥有。

企业收益这块在2019年经济放缓时就有迹可循。供应商能感受到行业的变化,一方面是来自OEM的价格压力,另一方面是是CASE技术成本的上升。在前100位供应商中,宣布盈利的供应商有73家。在这73家供应商中,有56家利润大不如前。与2018年相比,收入下降的公司数量进一步增加(71家中的48家,即68%)。2019年,整体盈利能力平均下降了15个百分点。2019年的销售利润率为60%,而2018年为75%。在前几年的顶峰时期,前100名能达到87%。有的个别供应商的利润急剧下降。与2018年相比,大陆,松下或American Axle的利润损失了5至10个百分点。

在德国排名前三的供应商公司里,特别对于大陆集团而言,这是真正的“灾年”,该集团以销售停滞和亏损结束。博世集团能够大致维持其整体销售以及汽车行业的销售,但在集团损失了43%的收入,但是没有透露在主要造成亏损的汽车行业的具体亏损数目。前100位里的两家最大供应商是行业急剧变化的例子,因为两家公司2018年的息税前利润超过70亿美元。采埃孚(ZF Friedrichshafen)还必须应对汽车部门销售额下降-11%的问题。

排名前100位的供应商汇总,韩国的供应商(主要是Hanon Systems和LG Electronics),由于汇率的影响,总销售额也增长了19%以上:Hanon Systems通过从Magna和手中收购了Fluid Pressure&Controls部门。LG Electronics通过信息娱乐系统和其他电动汽车零部件的强劲销售。来自中国的供应商,尤其是CATL,仍然实现了12%以上的平均销售额增长。在2018年之后,CATL能够再创辉煌(+ 55%的销售额,+ 25位,现在排名第43位)。在2019年底,CATL创造了新的记录,占中国电池总容量的50%。更多的中国汽车供应商已经准备好了,准备在2020年跻身前100名。十年前,排名前100位的中国供应商只有潍柴动力。

美国的亮点是,天纳克(Tenneco )通过2018年收购的辉门公司(Federal-Mogul)和2019年收购的Öhlins收购,现在排名第14位。(+ 52%销售额,+ 10位,现在排名14)。而来自日本的日立汽车系统公司(Hitachi Automotive Systems)通过从KPS Capital Partners收购了Chassis Brakes International,加强了积极的销售发展(销量增长31%,排名增加4位,现在排名第25)。

尽管时局动荡,但排名前10名的供应商保持不变前100名中的74家经典汽车供应商在2019年的市值增长了+ 304%。米其林Michelin紧随普利司通Bridgestone,今年有望超越。根据目前的情况,在2020年的排序出现任何变化都不会令人惊讶。尽管如此,2019年的增长也可以解释为资本市场的积极信号,是对于处在动荡之中的汽车行业以及前景充满信心的印证。让我们把它作为一个积极的结论,并充满信心看待“供应商行业的结构性变化”这一艰巨的任务。

谁都知道2020年将是灾难性的一年。会破产吗?当然!会是位于前100名的德国供应商吗?可能!Berylls预测全球供应商行业的销售额将下降20%至25%。有人担心只会产生一小部分利润。管理咨询公司还预计,排名前100位的公司中有90%会滑入亏损区。只有中国供应商会增长。

原文地址: >

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zz/13476499.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-08-14
下一篇 2023-08-14

发表评论

登录后才能评论

评论列表(0条)

保存