不只软、硬件厂商,许多云端服务商也纷纷卡位人工智能(AI)市场,但竞争白热化对于开发者来说倒也不是一件坏事,再加上大厂之间互相合作,这也促使整个AI生态系走向开放的型态,至少在市场上,资源会来越丰富与完整,从而降低开发者的入门门槛。
资源缺乏集成性 容易让开发出现断层虽然市场上已有相当充足的资源供开发者使用,说来简单,但实际上要投入开发却也不简单。在深度学习复杂庞大的知识体系下,开发者难以专精于每种技术层面,就好比擅长对大数据进行整理与分析的人,对于最底层运算环境中的硬件架构、IT技术知之甚少。
一个拥有资料科学背景的人尚可自己训练一个深度学习模型,毕竟市场上有许多流行的深度学习开源框架可以使用,象是Tensor Flow、Caffe、CNTK、Theano等,这些框架都各有自己的优缺点。
加上过去由史丹佛大学(Stanford University)举办ImageNet图象识别竞赛中,包括Google、微软(Microsoft)、百度等大型企业除了争夺图象识别宝座外,也会藉此机会同时测试自家系统的效能与极限,因此在比赛过程中,透过自家的深度学习框架训练出一些新的神经网络算法,这些资源经过大厂的「监定」与「验证」,开发者若有需求都可取之。
利用已成熟的资源投入模型的训练不难,但若开发者要再往下探究到更底层的运算环境,包括选择合适的硬件组装,或是建立基础运算环境时,情况就变得更复杂了。研华智能系统事业群协理刘厚仪观察,过去在深度学习的开发环境中,由于各技术层面之间壁垒分明,资源更难以集成。
就算开发者想对外寻求协助,在市场上也缺乏一套较完整的解决方案可以透过一次性的导入,解决系统建置所耗费的繁琐工程,以及软件开发的设计,这让如SI的业者很容易在建立最基础的运算系统过程中止步,迫使开发进程出现断层。
深度学习完整解决方案 缩短开发时间、提高效率因此,集成性的设备对于缩短系统建置时间至关重要。市场上最具有代表性的是NVIDIA在2016年所推出的DGX-1,当中便结合了硬件、深度学习软件、程序开发工具软件等,是全球第一款专为AI分析所打造的集成性设备。
DGX-1集成基础运算环境所需的资源与工具,用以减少系统集成与软件工程设计所需的时间,有了这样的设备,企业能快速、简易地部署相关的运算环境。不过DGX-1造价不斐,尤其对小规模的企业或是个人开发者而言,基于成本的考量很容易望之却步。
所幸研华也发现市场上面临资源分散、系统难以集成的问题,为了降低业者在建置训练系统的复杂性与技术门槛,研华近年也积极投入人工智能市场,并携手大厂技术合作,开发深度学习完整解决方案。
研华将训练系统中最底层包括硬件设备、深度学习软件开发套件、模型训练平台等基础运算环境所需的资源集成起来,藉此除了协助业者加速训练系统的建置,缩减人力和时间成本外,亦能让诸如SI的业者能投入更多资源专注于解决终端使用者的需求。
开发者唯一要做的事,便是「搜集资料、整理资料」如此简单,而最繁琐的系统建置工程,未来都能透过市场上完整部署的解决方案来完成。这也是为什么研华积极从投入人工智能市场、携手大厂集成最底层运算资源的原因,「目的即是让开发者将有限的开发时间,投入在最具有价值的资料处理与分析上。」研华智能系统事业群协理鲍志伟如此强调。
然而,「训练」只是深度学习的开始,更大的挑战是接下来如何将深度学习技术实际运用到各种场景中进行预测和分析,而这部份的关键则是终端的推理系统。各种终端应用场景象是交通运输、机器人、医疗保健和公共安全等,而每个应用场景实际上也面临一些特殊需求。
例如在交通场景需要极度安全且可靠的硬件设备进行感知、在公共安全领域则需要质量稳定的摄影镜头以维持可靠的执行效率,同样地,在苛刻和严峻的应用环境中也面临各种挑战。因此,若业者无法如实掌握产业端的特性,在系统建构的第一步便容易卡关、遇到阻碍。
这对于在产业深耕已久的研华来说,除了拥有积累多年的产业Know-how外,更能比一般业者熟悉市场客户的需求。研华也在市场上提供以产业端需求为中心所设计的推理系统,以加速AI在终端应用场景中落地。
象是在研华所开发的IVA(Intelligent Video Analysis)推理系统中,使用者便可透过内含多种智能影像分析功能,包括移动侦测、人脸侦测、人群密度侦测等,将其快速导入到AI应用的开发中。而研华完整的深度学习解决方案不仅包括前端所需的训练服务器,也集成终端推论环境所需的资料存储设备、网络设备等。
80%时间都耗在开发前资料处理前百度首席科学家吴恩达曾把深度学习比喻成一个火箭。在火箭的结构中,推进火箭最重要的部分就是引擎,而目前在深度学习这个领域里,引擎的核心就是神经网络。而火箭除了引擎外,还需要有燃料,那么大数据便是构成火箭的重要组成部分─燃料。
大数据对于深度学习的发展与推进至关重要。研华智能系统事业群协理鲍志伟认为,驱动人工智能的核心便是来自于大数据资料,一旦获取的数据量越多,便能藉此优化训练模型,让模型的推理与分析更佳精准。不过,具有分析价值的数据必然事先经过整理,否则最终只是「Garbage in, garbage out」。
然而,处理数据非常消耗人力与时间,以往由于缺乏资料处理工具,通常开发者在训练模型的过程中,会花费将近80%的时间在资料处理,象是整理或收集资料组合、10%的时间在运算,而10%的时间则在优化模型。
消耗大量的资料处理时间会拖慢开发进度,而市场也试图解决这个恼人的问题。象是在研华的深度学习超级工作站中,因其内建自动卷标工具,开发者唯一需要做得便是检查卷标是否正确,因而开发者在资料处理工具的辅助下,便能有效地节省80%的资料处理时间。
AI开发走向平民化人工智能之所以掀起热潮,除了归功于硬件运算能力的提升、类神经网络算法的突破外,云端服务的兴起也让系统建置成本大幅降低。在云端建置训练与推论系统的好处除了不需花费大量成本建构实体机外,还可以相当d性地选择扩充或减少部署。
开发者现今可以透过各种云端服务商来建置训练、或是推论系统,也可以选择直接在终端环境中部署。但基本上,选择在终端的成本无疑是最昂贵的,原则上有点像买断与租用的区别。若是在终端建置推论系统,由于需配合产业端的特性与需求,这对业者来说仍有一定的门槛。
现今市场上的云端平台除了提供运算资源,更打包好包括基础设施、储存空间及各种API等整套服务。目前市场上较知名的云端运算服务有AWS EC2、Azure或GCP平台。
亚马逊AWS由于创立较早,和其它平台相比拥有先发优势,如今提供的运算、储存、资料库、分析、应用程序服务等超过70种,覆盖面极广,自然成为用户首选;而微软于2010年成立的Azure也不惶多让,拥有67项服务,与微软的产品结合度高;GCP则挟带Google本身在人工智能领域的优势,以低价策略抢食市场大饼;而IBM的Bluemix则释出许多人工智能API。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)