皮查指出,Google专门为深层类神经网路设计了特殊应用IC,以ASIC为基础的硬体或软体,将能透过分析大量的数据学习特殊任务,Google借由神经网路得以辨识物件、照片中的人脸、了解传到Android手机上的说话指令,以及翻译技术,甚至因此改变了Google搜寻引擎。也是这项技术提升了Alpha GO的计算速度,并使其思虑看得更深远。
Google将运用此技术打造的机器学习专用晶片称之为TPU(Tensor Processing Unit),Google在其自家部落格文章称,由于TPU专为机器学习所运行,得以较传统CPU、 GPU降低精度,在计算所需的电晶体数量上,自然可以减少,也因此,可从电晶体中挤出更多效能,每秒执行更复杂、强大的机器学习模组,并加速模组的运用,使得使用者更快得到答案,Google指出,团队已经在数据中心执行TPU超过一年,且发现TPU能让机器学习每瓦提高一个数量级,粗略来说,相当于摩尔定律中晶片效能往前推进了七年或者三代。
上周四,媒体曾经向谷歌咨询定制AI芯片TPU的事,谷歌拒绝置评,只是说马上就会有更多的消息公布。然而一天之后,谷歌改变了态度,对一些问题给予了回复,问题是新闻发言人通过邮件形式回应的。
下面我们就来看看谷歌是如何解释TPU的:
1、TPU预先训练过吗?
这是一个大问题,谷歌无法回答。它可能是预先训练过的,但是我们并不能确切地知道。TPU是否经过训练,要看它执行的AI算法是否在独立系统中训练过。要训练AI系统识别一张图片,你必须向它展示几百万张图片,经过反复尝试才能学会。一旦学习完成,你只需要让算法在芯片上运行就可以了。例如,IBM的TrueNorth和Fathom芯片(来自创业公司Movidius)就是经过训练的。TPU有很大的可能训练过,但是谷歌不会这样说。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)