今日报道,谷歌向外宣布TPU将启动全面开放模式,据悉这是谷歌TPU首次对外全面开放。TPU的威力极大,它的出现必将给AI芯片和公有云市场将迎来新的变局。Google的机器学习利器Cloud TPU,在今日真的开始面向更多用户开放了。
谷歌又出手了。又是一个大招。
这次谷歌传奇Jeff Dean亲自在推特上连发10条,满怀激动地对外宣布着这个消息:谷歌TPU首次对外全面开放。
AI芯片和公有云市场将迎来新的变局。
之前英伟达的黄仁勋在谈到谷歌TPU时,就曾强硬的表示,对TPU的威胁不以为然。当时,老黄还列了列参数:新的TPU可以实现45 teraflop的运算能力,而英伟达最新的Volta GPU则能达到120 teraflop。
但如果你关注人工智能,肯定知道TPU的威力。谷歌搜索、翻译、相册等应用,都有TPU在提供AI加速。更值得一提的是,AlphaGo也是借力TPU,称霸围棋界。
而且谷歌这款芯片还专门对AI进行了优化。
谷歌在官方博客中表示,在新发布的Cloud TPU帮助下,不到一天的时间,你就可以在ImageNet上把ResNet-50模型训练到75%的精度,成本不足200美元。
从现在起,每小时6.5美元,你也能用上谷歌TPU了。
理论上。
Google的机器学习利器Cloud TPU,从今天开始面向更多用户开放了。
Cloud TPU今天发布了beta版,这一版本通过谷歌云平台(Google Cloud Platform, GCP)提供,想帮更多机器学习专家更快地运行模型。
Cloud TPU是谷歌设计的硬件加速,专为加速、扩展特定的TensorFlow机器学习工作负载而优化。
每个Cloud TPU包含4个定制化的ASIC,单块板卡的计算能力达到每秒180万亿次浮点运算(180 teraflops),有64GB的高带宽内存。
这些板卡可以单独使用,也可以通过超高速专用网络连接起来,形成“TPU pod”。今年晚些时候,Google会开始通过GCP供应这种更大的超级计算机。
Google设计Cloud TPU的目标,是针对性地为TensorFlow工作负载提供一分钱一分货的差异化性能,让研究人员嫩更快地进行迭代。
例如:
你能通过自定义、可控制的Google Compute Engine虚拟机,对联网的Cloud TPU进行交互式的、独享的访问,而不用等待自己的工作在共享计算集群上排队。
你能连夜在一组Cloud TPU上训练出同一个模型的几个变体,第二天将训练出来的最精确的模型部署到生产中,而不用等几天、甚至几周来训练关键业务机器学习模型。
不到一天的时间,你就可以在ImageNet上把ResNet-50模型训练到75%的精度,成本不到200美元。
更简单的机器学习模型训练
过去,为定制ASIC和超级计算机编程需要深入的专业知识技能。相比之下,要对Cloud TPU编程,用高级TensorFlow API就可以了,Google还开源了一组高性能的云TPU模型实现,上手更简单:
Google在博客中说,经过对性能和收敛性的不断测试,这些模型都达到了标准数据集的预期精度。
以后,Google会逐渐推出更多模型实现。不过,想要探险的机器学习专家也可以用他们提供的文档和工具,自行在Cloud TPU上优化其他TensorFlow模型。
现在开始用Cloud TPU,等到今年晚些时候Google推出TPU pod的时候,训练的时间-精度比能得到惊人的提升。
在NIPS 2017上,Google曾宣布ResNet-50和Transformer两个模型在完整TPU pod上的训练时间,都从大半天下降到了30分钟以内,不需要改动任何代码。
可扩展的机器学习平台云TPU还简化了机器学习计算资源的规划和管理:
你可以为团队提供最先进的机器学习加速,并根据需求的变化动态调整生产力。
你可以直接用经过Google多年优化的高度集成机器学习基础设施,无需投入大量金钱、时间、专业人才来设计、安装、维护现场机器学习计算集群,不用考虑供电、冷却、联网、存储要求等问题。
Google Cloud TPU经过预先配置,不需要安装驱动程序,因此,也不用想方设法让一大群工作站和服务器的驱动程序保持最新。
和其他Google云服务一样,有复杂的安全机制保护着你的数据。
Google说要为客户的每个机器学习负载提供最适合的云服务,除了TPU之外,他们还提供英特尔Skylake等高性能CPU,和包括英伟达Tesla V100在内的高端GPU。
开始使用吧Cloud TPU今天开始提供,数量有限,按秒计费。每个Cloud TPU每小时6.5美元。
要使用beta版的Cloud TPU,需要填个表,描述一下你要用TPU干什么。
Google说,会尽快让你用上Cloud TPU。
2月27日,Google还要开一场在线讲座,再细致地谈一谈Cloud TPU。
在Google的博客文章中,提到了两家客户使用Cloud TPU的感受。
一家是投资公司Two Sigma。他们的深度学习研究现在主要在云上进行,该公司CTO Alfred Spector说:“将TensorFlow工作负载转移到TPU上,大大降低了编程新模型的复杂性,缩短了训练时间。”
另一家是共享出行公司Lyft。深度学习正在成为这家公司无人车研究的重要组成部分。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)