人工智能硬件初创企业Cerebras发布了一款号称有史以来最大的人工智能软件培训芯片。公司创始人兼首席硬件设计师肖恩·利(Sean Lie)在台上展示了这款青铜色ipad大小的处理器,他说这是一块硅片上可以雕刻出的最大的正方形。
据称,bonkers 46,000 mm2的硅模封装了1.2万亿tsmc晶圆制造的16nm晶体管,40万核以二维网格布局,其织物带宽为每秒100 pb,芯片上内存为18GB,内存带宽为9PB/s。这听起来可能令人印象深刻,虽然不要期望太高,但我们还不知道它在生产中表现如何。也不知道要花多少钱。也不知道是否会有批量生产的人以外的通常的一层云巨头。
Lie说大脑还没有透露任何性能指标。硬件极客之间的讨论估计,功耗可以达到14到15千瓦,性能在千万亿次浮点运算的范围内不会太令人惊讶。处理器需要它自己的定制外壳和液体冷却:你不会把它放进一个标准的盒子里。看来网格的设计与网格的孔允许液体冷却流经,空气冷却是不够的。
Cerebras宣布,该芯片目前正在运行客户的工作负载,尽管它还没有上市。看看谁是它的第一批客户将会很有趣。这并不是一个通用的计算部分:假设它能像实验室外宣传的那样工作,那么可以把它想象成一个用于人工智能工作负载的超级数学协处理器。MLPerf是一个试图对机器学习硬件和软件平台的培训和推理性能进行基准测试的行业组织,它的工作人员正在创建一个名为MLCommons的非营利组织。
MLCommons的目标是加速ML创新,并增加其对社会的积极影响,MLPerf总主席兼谷歌工程师Peter Mattson说。有了这么多不同的芯片、框架和人工智能模型,想要找出最适合特定任务的组合简直是一场噩梦,无论是建立一个推荐系统还是计算机视觉系统。
MLPerf是为了帮助机器学习社区解决这个问题而建立的,但是到目前为止,结果并不理想。竞争主要由英伟达(Nvidia)和谷歌主导,很少有其他公司愿意公开自己的训练和推理表现,以免在这两家巨头的gpu和TPUs旁边显得糟糕。除了鼓励更多的公司提交结果,MLCommons还将为培训人工智能模型的任何人编制大型公共数据集,并计划扩大服务范围,吸引其他专家加入。
英特尔透露了有关Spring Crest的细节,该公司的ASIC旨在处理人工智能培训中的繁重工作,而Spring Hill或NNP-I 1000用于推理。Spring Hill支持INT8精度,最大性能为92个陀螺,散热功率高达50W,并封装75MB on-die内存,带宽为68GB/s。与其他推理芯片相比,它还拥有最高的性能,每瓦4.8个上限。每个冰里面都有另一个被称为深度学习计算网格的单元。这部分是执行深度学习算法指令来处理SRAM中保存的输入数据的地方。
英特尔没有提及何时推出Spring Hill芯片,但表示已经在设计下一代芯片。英特尔研究员Ofri Wechsler说,更多的细节将会被公开披露,他们希望提交下一个MLPerf推断测试的结果,所以请密切关注。
在英特尔的进一步发展中,奇普齐拉宣布了另外8个14纳米10代英特尔酷睿i3、i5和i7处理器,用于笔记本电脑。以下是基本规范:多达六个CPU核心;高达4.9GHz的最大涡轮时钟频率;高达12MB的模上缓存;高达1.15GHz内置GPU时钟频率;LPDDR4x、LPDDR3、DDR4内存速度提高到2666 MT/s。
最后,华为推出了Ascend 910人工智能处理器,这是Ascend- max系列的最新产品。该芯片是在2018年发布的,自那以后,它的规格发生了一些变化。它支持256TFLOPS FP16的精度,INT8的精度翻倍至512TFLOPS,功耗从350W降低到310W。Ascend 910面向的是训练模型,而不是执行推理。
华为还大力宣传Mindspore,这是一个软件框架,可以与硬件协同工作,优化和加速跨设备、edge和云计算的机器学习工作负载。MindSpore将在2020年第一季度实现开源。华为轮值主席徐昕泉表示:“我们希望推动更广泛的人工智能应用,并帮助开发者做他们最擅长的事情。”
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)