深度学习主要强调的是特征,强化学习主要强调的是反馈,而迁移学习主要强调的是适应。
之前介绍过人工智能之机器学习算法有前5大类内容,具体请参见相关文章。今天我们重点探讨一下第6类--迁移学习(Transfer Learning)。^_^
传统的机器学习是种瓜得瓜,种豆得豆,而迁移学习可以举一反三,投桃报李。
人工智能竞争,从算法模型的研发竞争,转向数据和数据质量的竞争,这些成功的模型和算法主要是由监督学习推动的,而监督学习对数据极度饥渴,需要海量数据(大数据)支撑来达到应用的精准要求。而人工智能发展更趋向于不要求海量数据也能达到应用的精准要求,因此“小数据学习”正在成为新的热点,以迁移学习,强化学习为代表的小数据学习技术,更能体现人工智能的未来之路。有专家称,在监督学习之后,迁移学习将引领下一波机器学习技术商业化浪潮。
迁移学习(TL)的概念自从1995年在NIPS5专题讨论会上被提出来后,受到学术界的广泛关注。迁移学习定义过于宽泛,相关研究中曾出现多种专用术语,比如learning to learn, life-long learn,mulTI-task learning, meta-learning, inducTIve transfer, knowledge transfer, context sensiTIve learning等。其中,迁移学习与多任务学习(mulTI-task learning)关系最为紧密。多任务学习同时学习多个不同的任务,从中发现隐含的共同特征,以帮助单个任务的学习。
什么是迁移学习?迁移学习TL(Transfer Learning)是把已学训练好的模型参数迁移到新的模型来帮助新模型训练。考虑到大部分数据或任务是存在相关性的,所以通过迁移学习,可以将已经学到的模型参数通过某种方式来分享给新模型从而加快并优化模型的学习效率。
迁移学习的基本动机:迁移学习的基本动机是试图从一个问题中获取的知识应用到另外一个不同但是相关的问题中去。比如,一个熟练应用C++语言编程的程序员能很快地学习和掌握JAVA语言。在某种程度上,机器学习中的迁移学习跟心理学上的“学习能力迁移”有一定的关联。在人类进化中,迁移学习这种能力是非常重要。比如说,人类在学会骑自行车后,再骑摩托车就很容易了,人类在学会打羽毛球后再学习打网球也会容易很多。人类能把过去的知识和经验应用到不同的新场景中,这样就有了一种适应的能力。
迁移学习主要类别方法:1)实例加权方法:通过某种方式对来自源领域的训练样本进行权重计算,以决定每个样本在训练过程中的重要性大小。
2)共同特征学习方法:通过若干个共同特征在源领域和目标领域之间传递有用的知识。
迁移学习的重要性:1)从数据角度:数据为王,计算是核心,但没有足够数据或收集数据很耗时,对数据打标签很难,用数据训练模型很繁琐。如何进行机器学习?迁移学习适用于小数据量场景;
2)从模型角度:云-端融合的模型被普遍使用,通过需要对设备、环境、用户做具体适配。个性化模型适配很复杂,需要有不同的用户隐私处理方式。迁移学习适合个性化方面。
3)从应用角度:机器学习应用中的冷启动问题,推荐系统没有初始用户数据,无法精准推荐。迁移学习可以解决冷启动问题。
迁移学习可减少对标定数据的依赖,通过和已有数据模型之间的迁移,更好地完成机器学习任务。
迁移学习实现方法:1)样本迁移(Instance-based Transfer Learning):在数据集(源领域)中找到与目标领域相似的数据,把这个数据放大多倍,与目标领域的数据进行匹配。其特点是:需要对不同例子加权;需要用数据进行训练。一般就是对样本进行加权,给比较重要的样本较大的权重。
2)特征迁移(Feature-based Transfer Learning):通过观察源领域图像与目标域图像之间的共同特征,然后利用观察所得的共同特征在不同层级的特征间进行自动迁移。在特征空间进行迁移,一般需要把源领域和目标领域的特征投影到同一个特征空间里进行。
3)模型迁移(Model-based Transfer Learning):利用上千万的图象训练一个图象识别的系统,当遇到一个新的图象领域,就不用再去找几千万个图象来训练了,可以原来的图像识别系统迁移到新的领域,所以在新的领域只用几万张图片同样能够获取相同的效果。模型迁移的一个好处是可以区分,就是可以和深度学习结合起来,可以区分不同层次可迁移的度,相似度比较高的那些层次被迁移的可能性就大一些。
4)关系迁移(Relational Transfer Learning):利用源域学习逻辑关系网络,再应用于目标域上。如社会网络,社交网络之间的迁移。
迁移学习工具:NanoNets(纳米网络)是一个简单方便的基于云端实现的迁移学习工具,内部包含了一组已经实现好的预训练模型,每个模型有数百万个训练好的参数。用户可以自己上传或通过网络搜索得到数据,NanoNets将自动根据待解问题选择最佳的预训练模型,并根据该模型建立一个NanoNets,并将之适配到用户的数据。NanoNets和预训练模型之间的关系结构如下图所示。
迁移学习发展:
1)结构与内容分离:当面临一个机器学习问题,想要发现不同问题之间的共性,那么可以把问题的结构和内容剥离开。虽然这样的分离并不容易,但是一旦完成,那么系统举一反三的能力就非常强。
2)多层次特征学习:把问题分到不同层次,有些层次就更容易帮助进行机器学习的迁移。用了这种层次型的迁移学习,不同的层次具有不同的迁移能力,对于不同层次的迁移能力就有了一个定量的估计。当需要处理新任务时,就可以把某些区域或某些层次给固定住,把其他的区域用小数据来做训练,这样就能够达到迁移学习的效果。
3)多步、传递式学习:从旧领域迁移到新领域,从一个多数据的领域迁移到少数据的领域,这种称之为单步迁移。很多场景是需要分阶段进行多步传导式的迁移,可以构建一个深度网络,而这个网络中间层既能照顾目标这个问题领域,又能照顾原来的领域。如果有一些中间领域,那么其可以把原领域和目标领域一步步的衔接起来。可以定义两个目标函数,两个目标函数一同工作时,一个优化了最后的目标,另一个则选择了样本。如此迭代,原领域的数据就从多步迁移到目标领域。
4)学习如何迁移:在给定任何一个迁移学习问题,系统可以自动在过去所有尝试过的算法里面,利用经验找到最合适的算法,可以是基于特征的、基于多层网络的、基于样本的或者是基于某种混合。或者把经验总结起来训练一个新的算法,这个算法的老师就是所有这些机器学习算法、文章、经历和数据。所以,学习如何迁移,就好像常说的学习如何学习,这个才是学习的最高境界,也就是学习方法的获取。
5)迁移学习作为元学习:把迁移学习本身作为一个元学习(Meta Learning)的方法,赋予到不同学习的方式上。假设以前有一个机器学习的问题或者是模型,现在只要在上面套一个迁移学习的罩子,它就可以变成一个迁移学习的模型了。
6)数据生成式迁移学习:对于生成式对抗网络来说,图灵测试外面的裁判是学生,里面的那个机器也是学生,两个人的目的是在对抗中共同成长,两方不断互相刺激,形成一种对抗(共同学习特点)。通过小数据可以生成很多模拟数据,通过模拟数据又来判定它是真的还是假的,用以刺激生成式模型的成长。可以通过小数据产生更多的数据,在新的领域就可以实现迁移学习的目的。
最近,迁移学习技术在机器学习和数据挖掘领域得到了深入的研究。
结语:
伴随着最近几年的机器学习热潮,迁移学习也成为目前最炙手可热的研究方向。机器学习的未来发展在小数据、个性化、可靠性上面,那就是迁移学习。迁移学习体现了人类特有的类比能力,是“举一反三”式的发散思维。迁移学习已经广泛被使用在各种人工智能机器学习应用场景中。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)