用嵌入式超算解决人工智能算力瓶颈的问题

用嵌入式超算解决人工智能算力瓶颈的问题,第1张

随着互联网以及物联网技术的普及,人类能够收集到的数据正在快速增长,甚至有数据显示,每年数据量的增幅竟高达 50%,因此,人工智能的发展并不乏原料。但在算力方面,此前人工智能的爆发其实离不开 GPU 的广泛使用,但如今算力的提升速度始终跟不上数据指数增长的速度,算力再度成为制约人工智能发展的瓶颈。

当然,市场上其实也有像谷歌这样的企业,企图通过研发 AI 专业芯片来破除算力瓶颈问题,另外更多的企业则利用云技术来解决这个问题。不过,动点科技最近遇到了一家名叫 米文动力的创业公司,其正试图采用一个更通用的方法解决这个问题,即利用英伟达的 GPU 芯片,为机器人以及低速自动驾驶小车等开发嵌入式超算平台——“米文大脑”,并提供多种视觉算法和导航避障算法。

据了解,包括 AlphaGo 在内,目前人工智能的实现方式主要为云端 AI,即需要通过网络将数据传到云端,在云端计算并进行识别等处理,最后再将结果传回本地。然而,米文动力 CEO 杨冠文表示,这种方案虽然有较高的效率,且已经实现了很多场景下的 AI 功能,但并不适用于每一个场景。

“因为数据量的指数增长,考虑到宽带成本、传输延迟以及隐私保护等,行业已经不能承受将所有数据无限制地传回到云端去处理了,于是,边缘计算随即应运而生。”杨冠文表示,他们所开发的“米文大脑”便是这么一款边缘计算设备。

当然,说到“米文大脑”,人们很有可能会联想到传统 ARM 平台或者 x86 平台(包括服务器),关于它们之间的差异化,杨冠文认为 ARM 以及 x86 平台势必要被算力更强的嵌入式平台所取代。“‘米文大脑’是专门为深度学习的部署和计算而开发的,这样的设备将是未来的趋势。在底层加速手段、加速工具的加持下,即使利用同样的硬件跑同样的算法,“米文大脑”也能达到 10 倍于传统计算设备的效果。

另外,说到边缘计算,还有一个不得不提的角色,即如今红得发紫的 AI 芯片。AI 芯片是否会比“米文大脑”这种利用通用 GPU 搭载的设备更加高效呢?AI行业一定会出现除了 GPU 之外的 AI 专用芯片,AI专用芯片面临最大的问题不是如何实现特定功能,而是如何打造生态,让大家都来用。

“假设你是一个工程师,今天我给你了两个方案,一个是英伟达的 GPU,一个是其它厂商的 AI 芯片,你会选择用谁呢?要知道,想要熟练使用这些芯片,其实都需要学习各自底层的语言与工具链,然而,如果你选择其它厂商的 AI 芯片,花了一年时间学习相关工具的应用,最后学得很精了,但公司却倒了,不就白学了吗?这就是生态问题。”杨冠文认为,经过 10 多年的积累,业内已经有了大量的懂 GPU 底层的开发者,GPU 生态已然形成。因此,在杨冠文看来,即使是 Intel高通这样的企业,他们的 AI 芯片也很难在短期内挑战 GPU 的地位。

“大家的目的都一样,即都是为了解决 AI 算力不足的问题,只是大家采用了各自不同的实现方式,他们采用的是专用芯片方案,专用意味着效率更高、功耗更低、成本更低,这是巨大的优势,但也可能带来通用度差、可移植性差等问题;而我们用的是通用的 GPU 芯片,通用型很好,可以跑各种算法,但相对于专用芯片,功耗可能会大一点,成本可能高一些。”

因此,究竟是使用专用的 AI 芯片还是 GPU 驱动的“米文大脑”,其实是如何平衡的问题。“现在很难说哪个方案好,哪个方案不好。”不过,杨冠文也强调,如果芯片的通用性不强,会给产品的商业落地造成更大的困难,而这也是米文动力一直坚持使用 GPU 的最重要原因。

关于竞争对手,杨冠文表示他们目前的竞争对手大概有两类,一类是由传统工控机(工业控制计算机)为起点的方案商,他们并不一定提供人工智能方案,因为对于客户来说,只要能够解决问题就可以了。另一类是摄像头之类的零部件厂商,他们也可能在摄像头的基础上为客户提供一些导航或者图像识别等 AI 算法。

另外,硬件与算法都永远不可能成为企业真正的壁垒,任何人都可以购买英伟达的 GPU,搭建出自己的大脑,并开发出相应的 AI 算法。

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/dianzi/2578020.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-08-07
下一篇 2022-08-07

发表评论

登录后才能评论

评论列表(0条)

保存