谷歌出手AI芯片和公有云市场 TPU首次对外全面开放

谷歌出手AI芯片和公有云市场 TPU首次对外全面开放,第1张

今日报道,谷歌向外宣布TPU将启动全面开放模式,据悉这是谷歌TPU首次对外全面开放。TPU的威力极大,它的出现必将给AI芯片和公有云市场将迎来新的变局。Google的机器学习利器Cloud TPU,在今日真的开始面向更多用户开放了。

谷歌又出手了。又是一个大招。

这次谷歌传奇Jeff Dean亲自在推特上连发10条,满怀激动地对外宣布着这个消息:谷歌TPU首次对外全面开放。

AI芯片和公有云市场将迎来新的变局。

之前英伟达黄仁勋在谈到谷歌TPU时,就曾强硬的表示,对TPU的威胁不以为然。当时,老黄还列了列参数:新的TPU可以实现45 teraflop的运算能力,而英伟达最新的Volta GPU则能达到120 teraflop。

但如果你关注人工智能,肯定知道TPU的威力。谷歌搜索、翻译、相册等应用,都有TPU在提供AI加速。更值得一提的是,AlphaGo也是借力TPU,称霸围棋界。

而且谷歌这款芯片还专门对AI进行了优化。

谷歌在官方博客中表示,在新发布的Cloud TPU帮助下,不到一天的时间,你就可以在ImageNet上把ResNet-50模型训练到75%的精度,成本不足200美元。

从现在起,每小时6.5美元,你也能用上谷歌TPU了。

理论上。

谷歌出手AI芯片和公有云市场 TPU首次对外全面开放,谷歌出手AI芯片和公有云市场 TPU首次对外全面开放,第2张

Google的机器学习利器Cloud TPU,从今天开始面向更多用户开放了。

Cloud TPU今天发布了beta版,这一版本通过谷歌云平台(Google Cloud Platform, GCP)提供,想帮更多机器学习专家更快地运行模型。

Cloud TPU是谷歌设计的硬件加速,专为加速、扩展特定的TensorFlow机器学习工作负载而优化。

每个Cloud TPU包含4个定制化的ASIC,单块板卡的计算能力达到每秒180万亿次浮点运算(180 teraflops),有64GB的高带宽内存。

这些板卡可以单独使用,也可以通过超高速专用网络连接起来,形成“TPU pod”。今年晚些时候,Google会开始通过GCP供应这种更大的超级计算机

谷歌出手AI芯片和公有云市场 TPU首次对外全面开放,谷歌出手AI芯片和公有云市场 TPU首次对外全面开放,第3张

Google设计Cloud TPU的目标,是针对性地为TensorFlow工作负载提供一分钱一分货的差异化性能,让研究人员嫩更快地进行迭代。

例如:

你能通过自定义、可控制的Google Compute Engine虚拟机,对联网的Cloud TPU进行交互式的、独享的访问,而不用等待自己的工作在共享计算集群上排队。

你能连夜在一组Cloud TPU上训练出同一个模型的几个变体,第二天将训练出来的最精确的模型部署到生产中,而不用等几天、甚至几周来训练关键业务机器学习模型。

不到一天的时间,你就可以在ImageNet上把ResNet-50模型训练到75%的精度,成本不到200美元。

更简单的机器学习模型训练

过去,为定制ASIC和超级计算机编程需要深入的专业知识技能。相比之下,要对Cloud TPU编程,用高级TensorFlow API就可以了,Google还开源了一组高性能的云TPU模型实现,上手更简单:

谷歌出手AI芯片和公有云市场 TPU首次对外全面开放,谷歌出手AI芯片和公有云市场 TPU首次对外全面开放,第4张

Google在博客中说,经过对性能和收敛性的不断测试,这些模型都达到了标准数据集的预期精度。

以后,Google会逐渐推出更多模型实现。不过,想要探险的机器学习专家也可以用他们提供的文档和工具,自行在Cloud TPU上优化其他TensorFlow模型。

现在开始用Cloud TPU,等到今年晚些时候Google推出TPU pod的时候,训练的时间-精度比能得到惊人的提升。

在NIPS 2017上,Google曾宣布ResNet-50和Transformer两个模型在完整TPU pod上的训练时间,都从大半天下降到了30分钟以内,不需要改动任何代码。

可扩展的机器学习平台

云TPU还简化了机器学习计算资源的规划和管理:

你可以为团队提供最先进的机器学习加速,并根据需求的变化动态调整生产力。

你可以直接用经过Google多年优化的高度集成机器学习基础设施,无需投入大量金钱、时间、专业人才来设计、安装、维护现场机器学习计算集群,不用考虑供电、冷却、联网、存储要求等问题。

Google Cloud TPU经过预先配置,不需要安装驱动程序,因此,也不用想方设法让一大群工作站和服务器的驱动程序保持最新。

和其他Google云服务一样,有复杂的安全机制保护着你的数据。

Google说要为客户的每个机器学习负载提供最适合的云服务,除了TPU之外,他们还提供英特尔Skylake等高性能CPU,和包括英伟达Tesla V100在内的高端GPU。

开始使用吧

Cloud TPU今天开始提供,数量有限,按秒计费。每个Cloud TPU每小时6.5美元。

要使用beta版的Cloud TPU,需要填个表,描述一下你要用TPU干什么。

Google说,会尽快让你用上Cloud TPU。

2月27日,Google还要开一场在线讲座,再细致地谈一谈Cloud TPU。

在Google的博客文章中,提到了两家客户使用Cloud TPU的感受。

一家是投资公司Two Sigma。他们的深度学习研究现在主要在云上进行,该公司CTO Alfred Spector说:“将TensorFlow工作负载转移到TPU上,大大降低了编程新模型的复杂性,缩短了训练时间。”

另一家是共享出行公司Lyft。深度学习正在成为这家公司无人车研究的重要组成部分。

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/dianzi/2581426.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-08-08
下一篇 2022-08-08

发表评论

登录后才能评论

评论列表(0条)

保存