什么的设计特征是持续学习

什么的设计特征是持续学习,第1张

我们人类有能够将一个任务的知识用到另一个任务上的能力,学习后一个任务时也不会忘记如何做前一个任务。这种能力叫持续学习 (continual learning/ life-long learning) 。而这个能力归结起来主要有两个问题:

如何能把之前任务的经验用上,使得更快更好的学习当前任务;

学习当前任务时,不会忘记之前已经学会的任务。

用更专业的术语来讲就是可塑性(学习新知识的能力)和稳定性(旧知识的记忆能力)。

可是,神经网络不同于人类,由于其自身的设计天然存在灾难性遗忘问题。当学习一个新任务的时候,需要更新网络中的参数,但是上一个任务提取出来的知识也是储存在这些参数上的呀。于是,神经网络在学习新任务的时候,旧任务的知识就会被覆盖。

Dropout

1.提高模型准确性和鲁棒性的一个利器

网络中有非常多的连接,我们在每一次参数更新的时候,随机的对这些连接做mask,mask掉的权重参数置零,不参与网络更新。dropout可以理解成一个简易的assemble,每次更新一个子网络,最终的预测结果是所有子网络预测的均值。

dropout强迫网络把每一层的模式相对均匀的记忆在各个神经元中(不加dropout时容易导致网络退化,一层中的神经元可能真正起作用的只有几个)。这样相当于增加了模型的鲁棒性,后续任务对其中的小部分神经元破坏时,不会影响整体的输出结果,对比之下,如果不加dropout,那么一旦关键的神经元被后续任务破坏,则前面的任务就完全崩了。使用dropout训练的模型size远大于不加dropout的模型大小。

持续学习

当前主流的针对神经网络模型的持续学习方法可以分为以下五类:

Regularization

在网络参数更新的时候增加限制,使得网络在学习新任务的时候不影响之前的知识。这类方法中,最典型的算法就是EWC。

Ensembling

当模型学习新任务的时候,增加新的模型(可以是显式或者隐式的方式),使得多个任务实质还是对应多个模型,最后把多个模型的预测进行整合。增加子模型的方式固然好,但是每多一个新任务就多一个子模型,对学习效率和存储都是一个很大的挑战。google发布的PathNet是一个典型的ensembling算法。

Rehearsal:

这个方法的idea非常的直观,我们担心模型在学习新任务的时候忘了旧任务,那么可以直接通过不断复习回顾的方式来解决呀(ง •_•)ง。在模型学习新任务的同时混合原来任务的数据,让模型能够学习新任务的同时兼顾的考虑旧任务。不过,这样做有一个不太好的地方就是我们需要一直保存所有旧任务的数据,并且同一个数据会出现多次重复学习的情况。其中,GeppNet是一个基于rehearsal的经典算法。

Dual-memory:

这个方法结合了人类记忆的机制,设计了两个网络,一个是fast-memory(短时记忆),另一个slow-memory(长时记忆),新学习的知识存储在fast memory中,fast-memory不断的将记忆整合transfer到slow-memory中。其中GeppNet+STM是rehearsal和dual-memory相结合的一个算法。

Sparse-coding:

灾难性遗忘是因为模型在学习新任务(参数更新)时,把对旧任务影响重大的参数修改了。如果我们在模型训练的时候,人为的让模型参数变得稀疏(把知识存在少数的神经元上),就可以减少新知识记录对旧知识产生干扰的可能性。Sensitivity-Driven是这类方法的一个经典算法。

这个方法的idea确实是挺合理的,当有效知识储存在少数的节点上,那么新知识我们就大概率可以存储在空的神经元上。

学习

深度学习

神经网络

家用别墅小型电梯

精选推荐

广告

持续学习:PyTorch实施各种持续学习方法(XdG,EWC,在线EWC,SI,LwF,GR,GR +蒸馏,RtF,ER,A-GEM,iCaRL)

35下载·0评论

2021年2月5日

持续学习常用6种方法总结:使ML模型适应新数据的同时保持旧数据的性能

3628阅读·0评论·1点赞

2022年10月18日

一时学习一时爽,"持续学习"持续爽

1219阅读·0评论·2点赞

2020年2月4日

2020-08-31

442阅读·0评论·0点赞

2020年8月31日

持续学习——Continual Learning With Additive Parameter Decomposition

1182阅读·2评论·1点赞

2021年9月30日

持续学习-Continual learning

3020阅读·0评论·1点赞

2020年12月24日

高清播放机,图片大全,点击查看详情!

精选推荐

广告

持续学习EWC代码实现

1188阅读·2评论·2点赞

2022年7月19日

【论文解读】持续学习三种情形

1669阅读·0评论·2点赞

2022年6月17日

[持续学习] Fisher信息矩阵与EWC

2685阅读·2评论·12点赞

2021年5月7日

持续学习:(Elastic Weight Consolidation, EWC)Overcoming Catastrophic Forgetting in Neural Network

4310阅读·6评论·22点赞

2020年7月19日

Life-Long Learning(LLL)终身学习的理解

6592阅读·2评论·3点赞

2020年8月4日

动手学深度学习(十三)——模型选择和优化(持续整理和更新,欢迎指正)

1417阅读·1评论·3点赞

2021年7月25日

如何更新你的机器学习模型?手把手带你设计一个可持续的预测模型!

6200阅读·0评论·2点赞

2020年3月17日

ICCV 2019 | Lifelong GAN:基于持续学习的条件图像生成模型

1362阅读·0评论·0点赞

2019年8月27日

如何学习算法或者模型?(持续更新中)

662阅读·0评论·2点赞

2019年8月27日

克服神经网络中的灾难性遗忘(EWC):Overcoming catastrophic forgetting inneural networks

4655阅读·0评论·1点赞

2020年7月30日

book.his

1下载·0评论

2023年1月7日

网络数据库安全设计与实现.doc

0下载·0评论

2023年1月8日

PureTuber_v2.15.10.101_VIP_Mod_HoFix_20211218.apk

0下载·0评论

2023年1月8日

【路径规划-PRM路径规划】基于RRT算法避障路径规划附matlab代码.zip

0下载·0评论

作 者:张天成 李奇林 裴天朔

Zhang TianchengLi QilinPei Tianshuo

作者机构:江苏理工学院机械工程学院

出 版 物:《机电工程技术》 (Mechanical &Electrical Engineering Technology)

年 卷 期:2022年第51卷第9期

页 面:127-131+177

中图分类:S225[农业科学-农业工程] TP18[工业技术-自动化技术、计算机技术] TP241[工业技术-自动化技术、计算机技术]

学科分类:08[工学] 0828[工学-农业工程] 0811[工学-控制科学与工程] 081104[工学-模式识别与智能系统] 0802[工学-机械工程] 080202[工学-机械电子工程]

基金:江苏理工学院研究生科研与实践创新计划项目(编号:XSJCX20_45)

主题:采摘机器人 运动规划 改进人工势场法 RRT*算法 仿真

摘 要:在农业采摘机器人作业过程中,机械臂能否避开作业环境中的障碍物完成采摘对于保证农户收入有着至关重要的作用。研究对象为串番茄采摘环境中的机械臂避障路径规划算法,提出一种基于机械臂避障路径规划的将人工势场法进行改进,然后与RRT*算法结合的路径规划算法。该算法改进了人工势场法的斥力势场函数,并根据人工势场法易陷入极值的局限性,结合RRT*算法引导采摘机械臂去逃离极值状态。最后为验证算法在串番茄采摘环境下的鲁棒性和相对于改进前人工势场法的优越性,在MATLAB软件中模拟串番茄采摘环境进行机械臂避障路径规划的仿真实验,实验结果证明该算法在不同串番茄采摘环境下具备鲁棒性,且相比于人工势场法,能够以自适应的方法引导采摘机械臂成功逃离极值,完成避障路径规划,验证了其优越性。

不是越大越好。RRT:一种通过随机构建SpaceFillingTree实现对非凸高维空间快速搜索的算法。该算法可以很容易的处理包含障碍物和差分运动约束的场景,被广泛的应用在各种机器人的运动规划场景中BasicRRT算法

原始的RRT算法中将搜索的起点位置作为根节点,然后通过随机采样增加叶子节点的方式,生成一个随机扩展树,当随机树的叶子节点进入目标区域,就得到了从起点位置到目标位置的路径


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/yw/8125187.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-04-13
下一篇 2023-04-13

发表评论

登录后才能评论

评论列表(0条)

保存