简述神经网络的分类,试列举常用神经的类型。

简述神经网络的分类,试列举常用神经的类型。,第1张

神经网络是一种通用机器学习模型,是一套特定的算法集,在机器学习领域掀起了一场变革,本身就是普通函数的逼近,可以应用到任何机器学习输入到输出的复杂映射问题。

一般来说,神经网络架构可分为3类:

1、前馈神经网络:是最常见的类型,第一层为输入,最后一层为输出。如果有多个隐藏层,则称为“深度”神经网络。它能够计算出一系列事件间相似转变的变化,每层神经元的活动是下一层的非线性函数。

2、循环神经网络:各节点之间构成循环图,可以按照箭头的方向回到初始点。循环神经网络具有复杂的动态,难以训练,它模拟连续数据,相当于每个时间片段具有一个隐藏层的深度网络,除了在每个时间片段上使用相同的权重,也有输入。网络可以记住隐藏状态的信息,但是很难用这点来训练网络。

3、对称连接网络:和循环神经网络一样,但单元间的连接是对称的(即在两个方向的连接权重相同),它比循环神经网络更容易分析,但是功能受限。没有隐藏单元的对称连接的网络被称为“Hopfiels网络”,有隐藏单元的对称连接的网络则被称为“波兹曼机器”。

按照训练方式分类,常见的神经网络类型包括:

监督学习(Supervised Learning):使用有标记的数据集进行训练,输出结果与实际值进行比较来计算误差。

无监督学习(Unsupervised Learning):使用没有标记的数据集进行训练,目的是发现数据之间的潜在关系。

强化学习(Reinforcement Learning):通过奖惩机制进行学习,训练模型执行正确的动作以达到最大化预期奖励的目标。

脉冲神经网络 (SNN) 属于第三代神经网络模型,实现了更高级的生物神经模拟水平。除了神经元和突触状态之外,SNN 还将时间概念纳入了其 *** 作之中,是一种模拟大脑神经元动力学的一类很有前途的模型。

那么什么是第一代和第二代神经网络模型呢?

第一代神经网络

第一代神经网络又称为感知器,在1950年左右被提出来,它的算法只有两层,输入层输出层,主要是线性结构。它不能解决线性不可分的问题,对稍微复杂一些的函数都无能为力,如异或 *** 作。

第二代神经网络:BP 神经网络

为了解决第一代神经网络的缺陷,在1980年左右 Rumelhart、Williams 等人提出第二代神经网络多层感知器 (MLP)。和第一代神经网络相比,第二代在输入层之间有多个隐含层的感知机,可以引入一些非线性的结构,解决了之前无法模拟异或逻辑的缺陷

第三代神经网络:脉冲神经网络

第三代神经网络,脉冲神经网络 (Spiking Neural Network,SNN) ,旨在弥合神经科学和机器学习之间的差距, 使用最拟合生物神经元机制的模型来进行计算,更接近生物神经元机制。 脉冲神经网络与目前流行的神经网络和机器学习方法有着根本上的不同。SNN 使用脉冲——这是一种发生在时间点上的离散事件——而非常见的连续值。每个峰值由代表生物过程的微分方程表示出来,其中最重要的是神经元的膜电位。本质上,一旦神经元达到了某一电位,脉冲就会出现,随后达到电位的神经元会被重置。对此,最常见的模型是 Leaky Integrate-And-Fire (LIF) 模型。此外,SNN 通常是稀疏连接的,并会利用特殊的网络拓扑。

脉冲神经网络 (SNN-Spiking Neuron Networks) 包含具有时序动力学特性的神经元节点、稳态-可塑性平衡的突触结构、功能特异性的网络环路等,高度借鉴了生物启发的局部非监督(如脉冲时序依赖可塑性、短时突触可塑性、局部稳态调节等)、全局弱监督(如多巴胺奖赏学习、基于能量的函数优化等)的生物优化方法,因此具有强大的时空信息表征、异步事件信息处理、网络自组织学习等能力。 [1]

脉冲神经网络,其 模拟神经元 更加接近实际,除此之外,把时间信息的影响也考虑其中。思路是这样的,动态神经网络中的 神经元 不是在每一次迭代传播中都被激活(而在典型的多层感知机网络中却是),而是在它的 膜电位 达到某一个特定值才被激活。当一个神经元被激活,它会产生一个信号传递给其他神经元,提高或降低其膜电位。

在脉冲神经网络中,神经元的当前激活水平(被建模成某种微分方程)通常被认为是当前状态,一个输入脉冲会使当前这个值升高,持续一段时间,然后逐渐衰退。出现了很多编码方式把这些输出脉冲序列解释为一个实际的数字,这些编码方式会同时考虑到脉冲频率和脉冲间隔时间。

借助于神经科学的研究,人们可以精确的建立基于脉冲产生时间 神经网络模型 。这种新型的神经网络采用脉冲编码(spike coding),通过获得脉冲发生的精确时间,这种新型的神经网络可以进行获得更多的信息和更强的计算能力。

20220112脉络分明:脉冲神经网络及其应用余肇飞:脉冲神经网络学习理论与方法_哔哩哔哩_bilibili

如何看待第三代神经网络 SNN?详解脉冲神经网络的架构原理、数据集和训练方法-极市开发者社区 (cvmartnet)

脉冲神经网络_ (baiducom)

Frontiers | Spiking Neural Network (SNN) With Memristor Synapses Having Non-linear Weight Update | Frontiers in Computational Neuroscience

强基固本脉冲神经网络(Spiking Neural Network)介绍 (qqcom)

首先来看一下机器学习的概念,我们提供给电脑样例数据,电脑通过一定的模型自己学习出相应的规则,并且这些规则可以随着数据的输入不断调整。而深度学习,则是一种十分有效的机器学习方法。

现在的深度学习主要指的是深度神经网络。神经网络形式上就是一个分层的网络结构,它其实是对神经元链接形式上的一种模拟,并不是真正的去建立一个人脑一样的结构,因为大脑太复杂了,我们现有的对大脑的了解还远远不足以让我们模拟一个大脑出来。所以它主要依赖的是数学,而不是神经科学。

深度学习使机器更加聪明,带给我们更加智能的服务。比如说,通过视觉获取和处理图像、通过声音讲出语言是人类最自然的与外界沟通的方式,但传统的计算机服务却无法从本质上读懂我们这些内容,当我们进行图像搜索或者向计算机发送某项指令时,我们需要预先在大脑中做一遍处理,将我们原本要表达的意思转化成计算机能够读懂的文本信息,然后手动输入到计算机并获得结果。但在机器学习的帮助下,我们随意把一张丢给电脑就能返回结果,我们直接用语言就可以来命令计算机来为我们提供各种服务。

这里给想学习人工智能深度学习的同学,推荐一下中公教育的深度学习直播课。课程由中科院自动化所人工智能专家倾力研发,将从实际的科研工程项目中,截取8个典型任务,带领学员体验系统架构设计、关键算法选取、核心模块开发、识别效果测试等实际项目建设的全流程,并重点掌握核心AI模块的开发环节,使学员在结业后能够直接上手从事技术岗位工作,无需二次熟悉。

同时中公教育深度学习课程技术紧跟市场需求,落地领域宽泛,不限于语音识别、图像识别、机器对话等前沿技术,涵盖行业内75%技术要点,满足各类就业需求,助力跻身人工智能领域优秀人才。

欢迎分享,转载请注明来源:内存溢出

原文地址: https://outofmemory.cn/zaji/12179256.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-21
下一篇 2023-05-21

发表评论

登录后才能评论

评论列表(0条)

保存