神经网络的学习内容是什么?

神经网络的学习内容是什么?,第1张

神经网络的学习内容主要包括:

感知机(perceptron):是一种线性分类模型,能够解决二分类问题。

多层感知机(multilayer perceptron, MLP):是一种由多个感知机堆叠而成的神经网络模型,能够解决多分类问题。

卷积神经网络(convolutional neural network, CNN):是一种深度学习模型,能够自动学习数据的特征,并在图像、视频、文本等数据中进行分类、分析和识别。

循环神经网络(recurrent neural network, RNN):是一种深度学习模型,能够处理序列数据,如文本、语音、时间序列等。常见的有LSTM和GRU等。

神经网络神奇的地方在于它的每一个组件非常简单——把空间切一刀+某种激活函数(0-1阶跃、sigmoid、max-pooling),但是可以一层一层级联。输入向量连到许多神经元上,这些神经元的输出又连到一堆神经元上,这一过程可以重复很多次。这和人脑中的神经元很相似:每一个神经元都有一些神经元作为其输入,又是另一些神经元的输入,数值向量就像是电信号,在不同神经元之间传导,每一个神经元只有满足了某种条件才会发射信号到下一层神经元。当然,人脑比神经网络模型复杂很多:人工神经网络一般不存在环状结构;人脑神经元的电信号不仅有强弱,还有时间缓急之分,就像莫尔斯电码,在人工神经网络里没有这种复杂的信号模式。

人工神经网络(artificialneuralnetwork,ANN)指由大量与自然神经系统相类似的神经元联结而成的网络,是用工程技术手段模拟生物网络结构特征和功能特征的一类人工系统。神经网络不但具有处理数值数据的一般计算能力,而且还具有处理知识的思维、学习、记忆能力,它采用类似于“黑箱”的方法,通过学习和记忆,找出输入、输出变量之间的非线性关系(映射),在执行问题和求解时,将所获取的数据输入到已经训练好的网络,依据网络学到的知识进行网络推理,得出合理的答案与结果。

岩土工程中的许多问题是非线性问题,变量之间的关系十分复杂,很难用确切的数学、力学模型来描述。工程现场实测数据的代表性与测点的位置、范围和手段有关,有时很难满足传统统计方法所要求的统计条件和规律,加之岩土工程信息的复杂性和不确定性,因而运用神经网络方法实现岩土工程问题的求解是合适的。

BP神经网络模型是误差反向传播(BackPagation)网络模型的简称。它由输入层、隐含层和输出层组成。网络的学习过程就是对网络各层节点间连接权逐步修改的过程,这一过程由两部分组成:正向传播和反向传播。正向传播是输入模式从输入层经隐含层处理传向输出层;反向传播是均方误差信息从输出层向输入层传播,将误差信号沿原来的连接通路返回,通过修改各层神经元的权值,使得误差信号最小。

BP神经网络模型在建立及应用过程中,主要存在的不足和建议有以下四个方面:

(1)对于神经网络,数据愈多,网络的训练效果愈佳,也更能反映实际。但在实际 *** 作中,由于条件的限制很难选取大量的样本值进行训练,样本数量偏少。

(2)BP网络模型其计算速度较慢、无法表达预测量与其相关参数之间亲疏关系。

(3)以定量数据为基础建立模型,若能收集到充分资料,以定性指标(如基坑降水方式、基坑支护模式、施工工况等)和一些易获取的定量指标作为输入层,以评价等级作为输出层,这样建立的BP网络模型将更准确全面。

(4)BP人工神经网络系统具有非线性、智能的特点。较好地考虑了定性描述和定量计算、精确逻辑分析和非确定性推理等方面,但由于样本不同,影响要素的权重不同,以及在根据先验知识和前人的经验总结对定性参数进行量化处理,必然会影响评价的客观性和准确性。因此,在实际评价中只有根据不同的基坑施工工况、不同的周边环境条件,应不同用户的需求,选择不同的分析指标,才能满足复杂工况条件下地质环境评价的要求,取得较好的应用效果。

BP神经网络被称为“深度学习之旅的开端”,是神经网络的入门算法。

各种高大上的神经网络都是基于BP网络出发的,最基础的原理都是由BP网络而来 [1] ,另外由于BP神经网络结构简单,算法经典, 是神经网络中应用最广泛的一种。

BP神经网络(back propagation neural network)全称是反向传播神经网络。

神经网络发展部分背景如下 [2] :

为解决非线性问题,BP神经网络应运而生。

那么什么是BP神经网络?稍微专业点的解释要怎么说呢?

很喜欢 最简单的神经网络--Bp神经网络 一文对算法原理的解释,语言活泼,案例简单,由浅入深。

文中提到所谓的 AI 技术,本质上是一种数据处理处理技术,它的强大来自于两方面:1互联网的发展带来的海量数据信息;2计算机深度学习算法的快速发展。AI 其实并没有什么神秘,只是在算法上更为复杂 [3] 。

我们从上面的定义出发来解释BP神经网络的原理。

BP神经网络整个网络结构包含了:一层输入层,一到多层隐藏层,一层输出层。

一般说L层神经网络,指的是有L个隐层,输入层和输出层都不计算在内的 [6] 。

BP神经网络模型训练的学习过程由信号的 正向传播 和误差的 反向传播 两个过程组成。

什么是信号的正向传播?顾名思义,就是结构图从左到右的运算过程。

我们来看看结构图中每个小圆圈是怎么运作的。我们把小圈圈叫做神经元,是组成神经网络的基本单元。

正向传播就是输入数据经过一层一层的神经元运算、输出的过程,最后一层输出值作为算法预测值y'。

前面正向传播的时候我们提到权重w、偏置b,但我们并不知道权重w、偏置b的值应该是什么。关于最优参数的求解,我们在 线性回归 、 逻辑回归 两章中有了详细说明。大致来讲就是:

BP神经网络全称 back propagation neural network,back propagation反向传播是什么?

反向传播的建设本质上就是寻找最优的参数组合,和上面的流程差不多,根据算法预测值和实际值之间的损失函数L(y',y),来反方向地计算每一层的z、a、w、b的偏导数,从而更新参数。

对反向传播而言,输入的内容是预测值和实际值的误差,输出的内容是对参数的更新,方向是从右往左,一层一层的更新每一层的参数。

BP神经网络通过先正向传播,构建参数和输入值的关系,通过预测值和实际值的误差,反向传播修复权重;读入新数据再正向传播预测,再反向传播修正,,通过多次循环达到最小损失值,此时构造的模型拥有最优的参数组合。

以一个简单的BP神经网络为例,由3个输入层,2层隐藏层,每层2个神经元,1个输出层组成。

输入层传入

第一层隐藏层

对于 神经元而言,传入 ,加权求和加偏置激活函数处理后,输出 ;

对于 神经元而言,传入 ,加权求和加偏置函数处理后,输出 ;

输出:

第二层隐藏层

对于 神经元而言,传入 ,加权求和加偏置激活函数处理后,输出 ;

对于 神经元而言,传入 ,加权求和加偏置激活函数处理后,输出 ;

输出:

输出层

对于输出层神经元而言,输入 ,加权求和加偏置激活函数处理后,输出 ,输出的是一个值

第一次运行正向传播这个流程时随用随机参数就好,通过反向传播不断优化。因此需要在一开始对 设置一个随机的初始值。

首先计算正向传播输出值 与实际值的损失 ,是一个数值。所谓反向是从右到左一步步来的,先回到 ,修正参数 。

以此类推,通过对损失函数求偏导跟新参数 ,再跟新参数 。这时又回到了起点,新的数据传入又可以开始正向传播了。

keras可以快速搭建神经网络,例如以下为输入层包含7129个结点,一层隐藏层,包含128个结点,一个输出层,是二分类模型。

神经网络反向传播的优化目标为loss,可以观察到loss的值在不断的优化。

可以通过modelget_layer()get_weights()获得每一层训练后的参数结果。通过modelpredict()预测新数据。

至此,BP神经网络的整个运算流程已经过了一遍。之前提到BP神经网络是为解决非线性问题应运而生的,那么为什么BP神经网络可以解决非线性问题呢?

还记得神经元里有一个激活函数的 *** 作吗?神经网络通过激活函数的使用加入非线性因素。

通过使用非线性的激活函数可以使神经网络随意逼近复杂函数,从而使BP神经网络既可以处理线性问题,也可以处理非线性问题。

为什么激活函数的使用可以加入非线性因素 [7] ?

其实逻辑回归算法可以看作只有一个神经元的单层神经网络,只对线性可分的数据进行分类。

输入参数,加权求和,sigmoid作为激活函数计算后输出结果,模型预测值和实际值计算损失Loss,反向传播梯度下降求编导,获得最优参数。

BP神经网络是比 Logistic Regression 复杂得多的模型,它的拟合能力很强,可以处理很多 Logistic Regression处理不了的数据,但是也更容易过拟合。

具体用什么算法还是要看训练数据的情况,没有一种算法是使用所有情况的。

常见的前馈神经网络有BP网络,RBF网络等。

BP神经网络的一个主要问题是:结构不好设计。

网络隐含层的层数和单元数的选择尚无理论上的指导,一般是根据经验或者通过反复实验确定。

但是BP神经网络简单、易行、计算量小、并行性强,目前仍是多层前向网络的首选算法。

[1] 深度学习开端---BP神经网络: https://blogcsdnnet/Chile_Wang/article/details/100557010

[2] BP神经网络发展历史: https://zhuanlanzhihucom/p/47998728

[3] 最简单的神经网络--Bp神经网络: https://blogcsdnnet/weixin_40432828/article/details/82192709

[4] 神经网络的基本概念: https://blogcsdnnet/jinyuan7708/article/details/82466653

[5] 神经网络中的 “隐藏层” 理解: https://blogcsdnnet/nanhuaibeian/article/details/100183000

[6] AI学习笔记:神经元与神经网络: https://wwwjianshucom/p/65eb2fce0e9e

[7] 线性模型和非线性模型的区别: https://wwwcnblogscom/toone/p/8574294html

[8] BP神经网络是否优于logistic回归: https://wwwzhihucom/question/27823925/answer/38460833

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/zaji/12178244.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-21
下一篇 2023-05-21

发表评论

登录后才能评论

评论列表(0条)

保存