大数据与人工智能的关系

大数据与人工智能的关系,第1张

数据作为人工智能发展的三个重要基础之一(数据、算法、算力),本身与人工智能就存在紧密的联系,正是基于大数据技术的发展,目前人工智能技术才在落地应用方面获得了诸多突破。

在当前大数据产业链逐渐成熟的大背景下,大数据与人工智能的结合也在向更全面的方向发展,大数据与人工智能的结合涉及到以下几个方式:

第一:大数据分析。从技术的角度来看,大数据分析是与人工智能一个重要的结合点,机器学习作为大数据重要的分析方式之一,正在被更多的数据分析场景所采用。机器学习不仅是人工智能领域的六大主要研究方向之一,同时也是入门人工智能技术的常见方式,不少大数据研发人员就是通过机器学习转入了人工智能领域。

第二:AIoT体系。AIoT技术体系的核心就是物联网与人工智能技术的整合,从物联网的技术层次结构来看,在物联网和人工智能之间还有重要的“一层”,这一层就是大数据层,所以在AIoT得到更多重视的情况下,大数据与人工智能的结合也增加了新的方式。

第三:云计算体系。随着云计算服务的逐渐深入和发展,目前云计算平台正在向“全栈云”和“智能云”方向发展,这两个方向虽然具有一定的区别(行业),但是一个重要的特点是都需要大数据的参与,尤其是智能云。

大数据的发展本身开辟出了一个新的价值空间,但是大数据本身并不是目的,大数据的应用才是最终的目的,而人工智能正是大数据应用的重要出口,所以未来大数据与人工智能的结合途径会越来越多。

有区别吗?

首先肯定是:有的

有什么区别呢?

大数据是一种通过数据采集达到用户画像的

人工智能是交叉学科,用户与机器学习等方面。

了解大数据与人工智能的区别与联系,首先我们从认知和理解大数据和人工智能的概念开始。
1、大数据
大数据是物联网、Web系统和信息系统发展的综合结果,其中物联网的影响最大,所以大数据也可以说是物联网发展的必然结果。大数据相关的技术紧紧围绕数据展开,包括数据的采集、整理、传输、存储、安全、分析、呈现和应用等等。目前,大数据的价值主要体现在分析和应用上,比如大数据场景分析等。
2、人工智能
人工智能是典型的交叉学科,研究的内容集中在机器学习、自然语言处理、计算机视觉、机器人学、自动推理和知识表示等六大方向,目前机器学习的应用范围还是比较广泛的,比如自动驾驶、智慧医疗等领域都有广泛的应用。人工智能的核心在于“思考”和“决策”,如何进行合理的思考和合理的行动是目前人工智能研究的主流方向。
3、大数据与人工智能
大数据和人工智能虽然关注点并不相同,但是却有密切的联系,一方面人工智能需要大量的数据作为“思考”和“决策”的基础,另一方面大数据也需要人工智能技术进行数据价值化 *** 作,比如机器学习就是数据分析的常用方式。在大数据价值的两个主要体现当中,数据应用的主要渠道之一就是智能体(人工智能产品),为智能体提供的数据量越大,智能体运行的效果就会越好,因为智能体通常需要大量的数据进行“训练”和“验证”,从而保障运行的可靠性和稳定性。
目前大数据相关技术已经趋于成熟,相关的理论体系已经逐步完善,而人工智能尚处在行业发展的初期,理论体系依然有巨大的发展空间。从学习的角度来说,如果从大数据开始学习是个不错的选择,从大数据过渡到人工智能也会相对比较容易。总的来说,两个技术之间并不存在孰优孰劣的问题,发展空间都非常大。

目前,业界有一种错误的较为普遍的意识,即“深度学习最终可能会淘汰掉其他所有机器学习算法”。这种意识的产生主要是因为,当下深度学习在计算机视觉、自然语言处理领域的应用远超过传统的机器学习方法,并且媒体对深度学习进行了大肆夸大的报道。

深度学习,作为目前最热的机器学习方法,但并不意味着是机器学习的终点。起码目前存在以下问题:

1 深度学习模型需要大量的训练数据,才能展现出神奇的效果,但现实生活中往往会遇到小样本问题,此时深度学习方法无法入手,传统的机器学习方法就可以处理;

2 有些领域,采用传统的简单的机器学习方法,可以很好地解决了,没必要非得用复杂的深度学习方法;

3 深度学习的思想,来源于人脑的启发,但绝不是人脑的模拟,举个例子,给一个三四岁的小孩看一辆自行车之后,再见到哪怕外观完全不同的自行车,小孩也十有八九能做出那是一辆自行车的判断,也就是说,人类的学习过程往往不需要大规模的训练数据,而现在的深度学习方法显然不是对人脑的模拟。

深度学习大佬 Yoshua Bengio 在 Quora 上回答一个类似的问题时,有一段话讲得特别好,这里引用一下,以回答上述问题:

Science is NOT a battle, it is a collaboration We all build on each other's ideas Science is an act of love, not war Love for the beauty in the world that surrounds us and love to share and build something together That makes science a highly satisfying activity, emotionally speaking!

这段话的大致意思是,科学不是战争而是合作,任何学科的发展从来都不是一条路走到黑,而是同行之间互相学习、互相借鉴、博采众长、相得益彰,站在巨人的肩膀上不断前行。机器学习的研究也是一样,你死我活那是邪教,开放包容才是正道。

结合机器学习2000年以来的发展,再来看Bengio的这段话,深有感触。进入21世纪,纵观机器学习发展历程,研究热点可以简单总结为2000-2006年的流形学习、2006年-2011年的稀疏学习、2012年至今的深度学习。未来哪种机器学习算法会成为热点呢?深度学习三大巨头之一吴恩达曾表示,“在继深度学习之后,迁移学习将引领下一波机器学习技术”。但最终机器学习的下一个热点是什么,谁又能说得准呢。

编辑于 2017-12-27

29918 条评论

分享

收藏感谢收起

阿里云云栖社区

用户标识1

已认证的官方帐号

39 人赞同了该回答

人工智能并不是一个新的术语,它已经有几十年的历史了,大约从80年代初开始,计算机科学家们开始设计可以学习和模仿人类行为的算法。

在算法方面,最重要的算法是神经网络,由于过拟合而不是很成功(模型太强大,但数据不足)。尽管如此,在一些更具体的任务中,使用数据来适应功能的想法已经取得了显着的成功,并且这也构成了当今机器学习的基础。

在模仿方面,人工智能专注于图像识别,语音识别和自然语言处理。人工智能专家们花费了大量的时间来创建诸如边缘检测,颜色配置文件,N-gram,语法树等。不过,这些进步还不足以达到我们的需求。

传统的机器学习:

机器学习(ML)技术在预测中发挥了重要的作用,ML经历了多代的发展,形成了具有丰富的模型结构,例如:

1线性回归。

2逻辑回归。

3决策树。

4支持向量机。

5贝叶斯模型。

6正则化模型。

7模型集成(ensemble)。

8神经网络。

这些预测模型中的每一个都基于特定的算法结构,参数都是可调的。训练预测模型涉及以下步骤:

1  选择一个模型结构(例如逻辑回归,随机森林等)。

2  用训练数据(输入和输出)输入模型。

3  学习算法将输出最优模型(即具有使训练错误最小化的特定参数的模型)。

每种模式都有自己的特点,在一些任务中表现不错,但在其他方面表现不佳。但总的来说,我们可以把它们分成低功耗(简单)模型和高功耗(复杂)模型。选择不同的模型是一个非常棘手的问题。

由于以下原因,使用低功率/简单模型是优于使用高功率/复杂模型:

在我们拥有强大的处理能力之前,训练高功率模型将需要很长的时间。

在我们拥有大量数据之前,训练高功率模型会导致过度拟合问题(因为高功率模型具有丰富的参数并且可以适应广泛的数据形状,所以我们最终可能训练一个适合于特定到当前的训练数据,而不是推广到足以对未来的数据做好预测)。

然而,选择一个低功率的模型会遇到所谓的“欠拟合”的问题,模型结构太简单,如果它复杂,就无法适应训练数据。(想象一下,基础数据有一个二次方关系:y = 5 x ^ 2;你无法适应线性回归:y = a x + b,不管我们选择什么样的a和b。

为了缓解“不适合的问题”,数据科学家通常会运用他们的“领域知识”来提出“输入特征”,这与输出关系更为直接。(例如,返回二次关系y = 5 square(x),如果创建了一个特征z = x ^ 2,则可以拟合线性回归:y = a z + b,通过选择a = 5和b = 0)。

机器学习的主要障碍是特征工程这个步骤,这需要领域专家在进入训练过程之前就要找到非常重要的特征。特征工程步骤是要靠手动完成的,而且需要大量领域专业知识,因此它成为当今大多数机器学习任务的主要瓶颈。

换句话说,如果我们没有足够的处理能力和足够的数据,那么我们必须使用低功耗/更简单的模型,这就需要我们花费大量的时间和精力来创建合适的输入特征。这是大多数数据科学家今天花时间去做的地方。

神经网络的回归:

在大数据时代,云计算和大规模并行处理基础架构的共同发展,使得机器处理能力在二十一世纪初得到了极大的提升。我们不再局限于低功耗/简单的模型。例如,当今最流行的两种主流机器学习模型是随机森林和梯度提升树。尽管如此,两者都非常强大,并且提供了非线性模型拟合的训练数据,但数据科学家仍然需要仔细地创建特征以获得良好的性能。

与此同时,计算机科学家重新使用神经网络的许多层来完成这些人类模仿的任务。这给DNN(深度神经网络)带来了新的生机,并在图像分类和语音识别任务方面提供了重大突破。DNN的主要区别在于,你可以将原始信号(例如RGB像素值)直接输入DNN,而不需要创建任何域特定的输入功能。通过多层神经元(这就是为什么它被称为“深度”神经网络),DNN可以“自动”通过每一层产生适当的特征,最后提供一个非常好的预测。这极大地消除了寻找“特征工程”的麻烦,这是数据科学家们最喜欢看到的。

DNN也演变成许多不同的网络拓扑结构,所以有CNN(卷积神经网络),RNN(递归神经网络),LSTM(长期短期记忆),GAN(生成敌对网络),转移学习,注意模型(attention model)所有的这些被统称为深度学习(Deep Learning),它正在引起整个机器学习界的关注。

强化学习:

另一个关键组成部分是关于如何模仿一个人(或动物)的学习,设想感知/行为/奖励循环的非常自然的动物行为。一个人或者一个动物首先会通过感知他或者她所处的状态来了解环境。在此基础上,他或者她会选择一个“动作”,将他或者她带到另一个“状态”。那么他或她将获得“奖励”,循环重复,直到他或她消失。这种学习方式(称为强化学习)与传统监督机器学习的曲线拟合方法有很大不同。尤其是,强化学习学习得非常快,因为每一个新的反馈(例如执行一个行动并获得奖励)都被立即发送到影响随后的决定。

强化学习也提供了预测和优化的平滑整合,因为它在采取不同的行动时保持当前状态的信念和可能的转换概率,然后做出决定哪些行动可以导致最佳结果。

深度学习+强化学习= AI

与经典的ML技术相比,DL提供了一个更强大的预测模型,通常可以产生良好的预测结果。与经典优化模型相比,强化学习提供了更快的学习机制,并且更适应环境的变化。

机器学习 vs 深度学习

在深度探讨machine learning和data science的联系之前,这里简要地讨论一下machine learning 和deep learning。machine learning是一套算法,来训练数据集做预测或者采取行动以使得系统最优化。举例来说,supervised classification algorithms被用来根据历史数据将想要贷款的客户分成预期好的和预期差的(good or bad prospects)。对于给定的任务(比如监督聚类),需要的技术多种多样:naive Bayes、SVM、neural nets、ensembles、association rules、decision trees、logistic regression,或者是很多技术的组合。所有这些都是数据科学的子集。当这些算法自动化后,比如无人驾驶飞机或者无人驾驶汽车,这就叫AI了,或者说的具体一点,deep learning。如果采集的数据来自传感器并且通过互联网传播,那么这就是机器学习或数据科学或深度学习应用于物联网了。

有些人对深度学习有不同的定义,他们认为深度学习是更深层次的神经网络(一种机器学习的技术)。AI(Artificial Intelligence)是创建于20世纪60年代的计算机科学的一个子领域,是关于解决那些对人类来讲非常容易但是对计算机而言很难的任务。值得一提的是,所谓的strong AI可能可以做所有人类可以做的事情(可能除了纯粹的物理问题)。这是相当广泛的,包括各种各样的事情,比如做计划,在世界上到处溜达,识别物体和声音,说话,翻译,社交或者商业交易,还有创造性工作(比如写诗画画)等等。

NLP(Natural language processing)只是AI要处理的语言部分,尤其是写。

Machine learning是这样的一种情况:给出一些可以被以离散形式描述的AI问题(比如从一系列动作中选出对的那个),然后给定一堆外部世界的信息,在不需要程序员手动写程序的情况下选出那个“正确的”行为。通常情况需要借助外界的一些过程来判断这个动作对不对。在数学上,这就是函数:你给一些输入,然后你想要他处理一下得到正确的输出,所以整个问题就简化为用一些自动的方式建立这种数学函数模型。和AI区分一下:如果我写了一段特别机智的程序有着人类的行为,那这就可以是AI,但是除非它的参量都是自动从数据中学会的,否则就不是机器学习。

Deep learning是当下非常流行的机器学习的一种。它包含一种特殊的数学模型,可以想成是一种特定类型的简单块的组合(或者说是块的功能的组合),这些块可以进行调整来更好的预测最终结果。

我们在互联网进化论和互联网神经学的研究过程中,提出“互联网正在向着与人类大脑高度相似的方向进化,它将具备自己的视觉、听觉、触觉、运动神经系统,也会拥有自己的记忆神经系统、中枢神经系统、自主神经系统。另一方面,人脑至少在数万年以前就已经进化出所有的互联网功能,不断发展的互联网将帮助神经学科学家揭开大脑的秘密。科学实验将证明大脑中也经拥有Google一样的搜索引擎,Facebook一样的SNS系统,IPv4一样的地址编码系统,思科一样的路由系统。”
之前也根据这一研究结果所绘制的“互联网虚拟大脑结构图”对互联网与云计算,大数据,物联网,工业40(工业互联网)的关系进行了阐释。
1物联网是互联网大脑的感觉神经系统
因为物联网重点突出了传感器感知的概念,同时它也具备网络线路传输,信息存储和处理,行业应用接口等功能。而且也往往与互联网共用服务器,网络线路和应用接口,使人与人(Human ti Human ,H2H),人与物(Human to thing,H2T)、物与物( Thing to Thing,T2T)之间的交流变成可能,最终将使人类社会、信息空间和物理世界(人机物)融为一体
2云计算是互联网大脑的中枢神经系统
在互联网虚拟大脑的架构中,,互联网虚拟大脑的中枢神经系统是将互联网的核心硬件层,核心软件层和互联网信息层统一起来为互联网各虚拟神经系统提供支持和服务,从定义上看,云计算与互联网虚拟大脑中枢神经系统的特征非常吻合。在理想状态下,物联网的传感器和互联网的使用者通过网络线路和计算机终端与云计算进行交互,向云计算提供数据,接受云计算提供的服务。
3大数据是互联网智慧和意识产生的基础
随着博客、社交网络、以及云计算、物联网等技术的兴起,互联网上数据信息正以前所未有的速度增长和累积。互联网用户的互动,企业和政府的信息发布,物联网传感器感应的实时信息每时每刻都在产生大量的结构化和非结构化数据,这些数据分散在整个互联网网络体系内,体量极其巨大。这些数据中蕴含了对经济,科技,教育等等领域非常宝贵的信息[52]。这就是互联网大数据兴起的根源和背景。
与此同时,深度学习为代表的机器学习算法在互联网领域的广泛使用,使得互联网大数据开始与人工智能进行更为深入的结合,这其中就包括在大数据和人工智能领域领先的世界级公司,如百度,谷歌,微软等。2011年谷歌开始将“深度学习”运用在自己的大数据处理上,互联网大数据与人工智能的结合为互联网大脑的智慧和意识产生奠定了基础。
4工业40或工业互联网本质上是互联网运动神经系统的萌芽
互联网中枢神经系统也就是云计算中的软件系统控制工业企业的生产设备,家庭的家用设备,办公室的办公设备,通过智能化,3D打印,无线传感等技术使的机械设备成为互联网大脑改造世界的工具。同时这些智能制造和智能设备也源源不断向互联网大脑反馈大数据数,供互联网中枢神经系统决策使用。
5互联网+的核心是互联网进化和扩张,反映互联网从广度、深度融合和介入现实世界的动态过程
互联网+是2015年在中国迅速升温的新互联网概念,这其中离不开国家的倡议,腾讯的大力推动,张晓峰,杜军主编的《互联网+,国家战略行动路线图》等书的深入研究。对于这个原创于本土并被广泛关注的互联网概念,我们应该给与大力支持,更因为互联网+的确深刻刻画了互联网发展形态。
我们无法用上面单独的一张图表示我们对互联网+的理解。这是因为互联网+本质上反映互联网从广度、深度侵蚀现实世界的动态过程。互联网从1969年在大学实验室里诞生,不断扩张,从美国到美洲,从亚洲,欧洲到非洲,南极洲,应用领域从科研,到生活,从娱乐到工作,从传媒到工业制造业。互联网+提出者,易观国际的于扬老师认为互联网像黑洞一样,不断把这个世界吞噬进来。其实互联网+反映了于扬老师的互联网黑洞论进一步提升,+这个符号可以看做是一张黑洞的入口或嘴。这也是为什么我们叫互联网+,而不叫+互联网。

随着智能手机的普及和各种智能联网设备的广泛运用,联网设备的数量近几年都在不断增长,从2017年起,整个物联网市场预计每年价值超过10亿美元。物联网渗透到各行各业中已经是不争的事实,2018年即将结束,千锋物联网培训为大家分析2018年物联网呈现的四大关键趋势。

趋势1:物联网平台被大规模采用

根据研究,企业决策者正在迅速意识到物联网带来的机遇。其研究显示,60%的决策者已经使用或计划在未来两年内使用物联网。

到2018年为止,我们已经看到了物联网软件平台的发展,以及硬件 *** 作管理、安全性、预测性维护和资产跟踪的打包应用程序的广泛采用。

趋势2:物联网与AR、人工智能和机器学习协同应用

没有一项技术是在真空中发展起来的,大量的物联网应用及平台生态集成了机器学习、图像识别、增强现实和区块链技术。今年,我们看到很多单点智能技术与物联网协同或者多个技术与物联网协同应用案例。

趋势3:优化数据

数据是支持物联网系统和服务的重要因素。然而,只有精心准备、干净、格式化和可索引的数据才能成为有价值的数据。根据数据科学家的观点,从异构数据中获得分析洞察力的工作80%是乏味的。因此,并不是每一个将IOT技术引入到其 *** 作和过程中的公司都会得到最好的数据。

趋势4:面对物联网安全挑战

安全仍是整个物联网生态系统中最大的问题。多层物联网系统存在安全问题。企业数据传输和个人数据共享都是主要问题。其他问题领域包括支付交易安全和硬件层安全性。

如今,个人移动设备的生物识别已经无处不在。我们可以期待连接的设备接受先进认证的好处。

据悉,预计到2030年,物联网将为全球GDP增长贡献10-15万亿美元。这个庞大的市场必然大有发展,如果你也看好物联网的发展,可以来千锋智能物联网培训进行专业系统的学习。

有人说,人工智能(AI)是未来,人工智能是科幻,人工智能也是我们日常生活中的一部分。这些评价可以说都是正确的,就看你指的是哪一种人工智能。

今年早些时候,Google DeepMind的AlphaGo打败了韩国的围棋大师李世乭九段。在媒体描述DeepMind胜利的时候,将人工智能(AI)、机器学习(machine learning)和深度学习(deep learning)都用上了。这三者在AlphaGo击败李世乭的过程中都起了作用,但它们说的并不是一回事。

今天我们就用最简单的方法——同心圆,可视化地展现出它们三者的关系和应用。

如上图,人工智能是最早出现的,也是最大、最外侧的同心圆;其次是机器学习,稍晚一点;最内侧,是深度学习,当今人工智能大爆炸的核心驱动。

五十年代,人工智能曾一度被极为看好。之后,人工智能的一些较小的子集发展了起来。先是机器学习,然后是深度学习。深度学习又是机器学习的子集。深度学习造成了前所未有的巨大的影响。

从概念的提出到走向繁荣

1956年,几个计算机科学家相聚在达特茅斯会议(Dartmouth Conferences),提出了“人工智能”的概念。其后,人工智能就一直萦绕于人们的脑海之中,并在科研实验室中慢慢孵化。之后的几十年,人工智能一直在两极反转,或被称作人类文明耀眼未来的预言;或者被当成技术疯子的狂想扔到垃圾堆里。坦白说,直到2012年之前,这两种声音还在同时存在。

过去几年,尤其是2015年以来,人工智能开始大爆发。很大一部分是由于GPU的广泛应用,使得并行计算变得更快、更便宜、更有效。当然,无限拓展的存储能力和骤然爆发的数据洪流(大数据)的组合拳,也使得图像数据、文本数据、交易数据、映射数据全面海量爆发。

让我们慢慢梳理一下计算机科学家们是如何将人工智能从最早的一点点苗头,发展到能够支撑那些每天被数亿用户使用的应用的。

| 人工智能(Artificial Intelligence)——为机器赋予人的智能

早在1956年夏天那次会议,人工智能的先驱们就梦想着用当时刚刚出现的计算机来构造复杂的、拥有与人类智慧同样本质特性的机器。这就是我们现在所说的“强人工智能”(General AI)。这个无所不能的机器,它有着我们所有的感知(甚至比人更多),我们所有的理性,可以像我们一样思考。

人们在里也总是看到这样的机器:友好的,像星球大战中的C-3PO;邪恶的,如终结者。强人工智能现在还只存在于和科幻小说中,原因不难理解,我们还没法实现它们,至少目前还不行。

我们目前能实现的,一般被称为“弱人工智能”(Narrow AI)。弱人工智能是能够与人一样,甚至比人更好地执行特定任务的技术。例如,Pinterest上的图像分类;或者Facebook的人脸识别。

这些是弱人工智能在实践中的例子。这些技术实现的是人类智能的一些具体的局部。但它们是如何实现的?这种智能是从何而来?这就带我们来到同心圆的里面一层,机器学习。

| 机器学习—— 一种实现人工智能的方法

机器学习最基本的做法,是使用算法来解析数据、从中学习,然后对真实世界中的事件做出决策和预测。与传统的为解决特定任务、硬编码的软件程序不同,机器学习是用大量的数据来“训练”,通过各种算法从数据中学习如何完成任务。

机器学习直接来源于早期的人工智能领域。传统算法包括决策树学习、推导逻辑规划、聚类、强化学习和贝叶斯网络等等。众所周知,我们还没有实现强人工智能。早期机器学习方法甚至都无法实现弱人工智能。

机器学习最成功的应用领域是计算机视觉,虽然也还是需要大量的手工编码来完成工作。人们需要手工编写分类器、边缘检测滤波器,以便让程序能识别物体从哪里开始,到哪里结束;写形状检测程序来判断检测对象是不是有八条边;写分类器来识别字母“ST-O-P”。使用以上这些手工编写的分类器,人们总算可以开发算法来感知图像,判断图像是不是一个停止标志牌。

这个结果还算不错,但并不是那种能让人为之一振的成功。特别是遇到云雾天,标志牌变得不是那么清晰可见,又或者被树遮挡一部分,算法就难以成功了。这就是为什么前一段时间,计算机视觉的性能一直无法接近到人的能力。它太僵化,太容易受环境条件的干扰。

随着时间的推进,学习算法的发展改变了一切。

| 深度学习——一种实现机器学习的技术

人工神经网络(Artificial Neural Networks)是早期机器学习中的一个重要的算法,历经数十年风风雨雨。神经网络的原理是受我们大脑的生理结构——互相交叉相连的神经元启发。但与大脑中一个神经元可以连接一定距离内的任意神经元不同,人工神经网络具有离散的层、连接和数据传播的方向。

例如,我们可以把一幅图像切分成图像块,输入到神经网络的第一层。在第一层的每一个神经元都把数据传递到第二层。第二层的神经元也是完成类似的工作,把数据传递到第三层,以此类推,直到最后一层,然后生成结果。

每一个神经元都为它的输入分配权重,这个权重的正确与否与其执行的任务直接相关。最终的输出由这些权重加总来决定。

我们仍以停止(Stop)标志牌为例。将一个停止标志牌图像的所有元素都打碎,然后用神经元进行“检查”:八边形的外形、救火车般的红颜色、鲜明突出的字母、交通标志的典型尺寸和静止不动运动特性等等。神经网络的任务就是给出结论,它到底是不是一个停止标志牌。神经网络会根据所有权重,给出一个经过深思熟虑的猜测——“概率向量”。

这个例子里,系统可能会给出这样的结果:86%可能是一个停止标志牌;7%的可能是一个限速标志牌;5%的可能是一个风筝挂在树上等等。然后网络结构告知神经网络,它的结论是否正确。

即使是这个例子,也算是比较超前了。直到前不久,神经网络也还是为人工智能圈所淡忘。其实在人工智能出现的早期,神经网络就已经存在了,但神经网络对于“智能”的贡献微乎其微。主要问题是,即使是最基本的神经网络,也需要大量的运算。神经网络算法的运算需求难以得到满足。

不过,还是有一些虔诚的研究团队,以多伦多大学的Geoffrey Hinton为代表,坚持研究,实现了以超算为目标的并行算法的运行与概念证明。但也直到GPU得到广泛应用,这些努力才见到成效。

我们回过头来看这个停止标志识别的例子。神经网络是调制、训练出来的,时不时还是很容易出错的。它最需要的,就是训练。需要成百上千甚至几百万张图像来训练,直到神经元的输入的权值都被调制得十分精确,无论是否有雾,晴天还是雨天,每次都能得到正确的结果。

只有这个时候,我们才可以说神经网络成功地自学习到一个停止标志的样子;或者在Facebook的应用里,神经网络自学习了你妈妈的脸;又或者是2012年吴恩达(Andrew Ng)教授在Google实现了神经网络学习到猫的样子等等。

吴教授的突破在于,把这些神经网络从基础上显著地增大了。层数非常多,神经元也非常多,然后给系统输入海量的数据,来训练网络。在吴教授这里,数据是一千万YouTube视频中的图像。吴教授为深度学习(deep learning)加入了“深度”(deep)。这里的“深度”就是说神经网络中众多的层。

现在,经过深度学习训练的图像识别,在一些场景中甚至可以比人做得更好:从识别猫,到辨别血液中癌症的早期成分,到识别核磁共振成像中的肿瘤。Google的AlphaGo先是学会了如何下围棋,然后与它自己下棋训练。它训练自己神经网络的方法,就是不断地与自己下棋,反复地下,永不停歇。

| 深度学习,给人工智能以璀璨的未来

深度学习使得机器学习能够实现众多的应用,并拓展了人工智能的领域范围。深度学习摧枯拉朽般地实现了各种任务,使得似乎所有的机器辅助功能都变为可能。无人驾驶汽车,预防性医疗保健,甚至是更好的推荐,都近在眼前,或者即将实现。

人工智能就在现在,就在明天。有了深度学习,人工智能甚至可以达到我们畅想的科幻小说一般。你的C-3PO我拿走了,你有你的终结者就好了。

物联网是继计算机、互联网之后的又一信息化时代的变革,它通过智能感知、识别技术与普适计算等通信感知技术,应用在网络与实物的融合中。物联网里面的应用就更广泛智慧工业,智慧农业,智慧城市,智慧医疗,这些都是和大数据,云计算结合在一起的,人工智能也是其中的一部分。
那么,什么是人工智能物联网(AloT)?
AIoT(人工智能物联网)=AI(人工智能)+IoT(物联网)。AIoT融合AI技术和IoT技术,通过物联网产生、收集海量的数据存储于云端、边缘端,再通过大数据分析,以及更高形式的人工智能,实现万物数据化、万物智联化,物联网技术与人工智能追求的是一个智能化生态体系,除了技术上需要不断革新,技术的落地与应用更是现阶段物联网与人工智能领域亟待突破的核心问题。
简而言之,就是人工智能技术与物联网在实际应用中的合理融合实现效益最大化。
那么,人工智能和物联网又有什么区别呢?
人工智能和物联网两者的区别,大可不必去研究谁占据主导地位。与其说两者有什么区别,不如说是两者其实是相辅相成,相互联系的“共同体”。只有它们同时使用,才能实现人工智能和物联网最大优势。而且根据数据显示,在不久的将来,物联网技术将无处不在,我们很难再找到没有连接互联网的设备。
人工智能和物联网的是怎么结合在一起应用在现实生活中的?
1、无人机交通监控
我们的城市道路随着不断发展的同时,交通堵塞问题也每况愈下。因此使用实时资料来监控和改变交通流量,可以显著提高效率并改善塞车的情况。透过智慧路灯的架设,在每个路段监测流量并且及时调整交通号志,或者透过无人机作为机动性的更高的部署选择,并且可以监测更大范围的地区,利用智慧实时搜集信息,然后送交附近的装置进行分析。虽然物联网装置具有更强大的计算能力,但网络频宽仍然受到限制。而目前正在进行的5G基础建设,则可以有效地解决资料传输延迟问题,大幅提升实时分析,以满足智慧物联网工作负载的要求。
2、特斯拉智能汽车
特斯拉很好地应用了众多传感器、GPS和摄像头来开发的自动驾驶技术。特斯拉汽车通过物联网嵌入式传感器和人工智能应用来学习智能交通行为,以实现360度自动驾驶汽车。而这一项技术还有一个值得提的点是,所有特斯拉汽车都可以通过智能控制设备相互交流。此外,它还有助于提高每个单元的性能。
3、智能家居
智能家居行业,作为AIoT人机交互最重要的落地场景,正吸引越来越多企业进入。过去的家电就是一个功能机时代,就像以前的手机按键式的,帮你把温度降下来,帮你实现食物的冷藏;现在的家电实现了单机智能,就是语音或手机APP的遥控去实现调温度、打开风扇等等。基于互联智能的构想,未来的AIoT时代,每个设备都需要具备一定的感知(如预处理)、推断以及决策功能。因此,每个设备端都需要具备一定不依赖于云端的独立计算能力,即上面提到的边缘计算。
有相关言论称,在未来量子计算可能在人工智能方面发挥重要的积极作用。因为经典的人工智能不管发展到什么程度,我们仍然觉得这是一部机器,是一个机器人,它不可能完全像人类大脑一样去思考。而量子力学把观测者的意识与物质的演化结合起来,所以有些科学家会猜测,人类大脑的运行机制可能和量子计算机有一些相通之处。随着量子计算的发展,也许可以帮助我们更好地理解人类的智慧。总而言之,无论是AI,还是物联网,都离不开一个关键词——数据。数据是万物互联、人机交互的基础。AI的介入让IoT有了连接的“大脑”。同样,归功于当前存储技术发展,让数据有了基本的“后勤保障”。云服务的快速扩张,则让数据有了发挥价值的物质基础。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/dianzi/12724055.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-27
下一篇 2023-05-27

发表评论

登录后才能评论

评论列表(0条)

保存