前面写了对话系统中的SLU之领域 分类/意图识别 、 槽填充 、 上下文LU和结构化LU 以及 NLG ,DST是对话管理(DM)的一部分,而DM是任务型对话中至关重要的一部分。说个 非严格的对比 :如果把对话系统比作计算机的话,SLU相当于输入,NLG相当于输出设备,而DM相当于CPU(运算器+控制器)。
对话系统按功能来划分的话,分为闲聊型、任务型、知识问答型和推荐型。在不同类型的聊天系统中,DM也不尽相同。
闲聊型对话中的DM就是对上下文进行序列建模、对候选回复进行评分、排序和筛选等,以便于NLG阶段生成更好的回复;
任务型对话中的DM就是在NLU(领域分类和意图识别、槽填充)的基础上,进行对话状态的追踪(DST)以及对话策略的学习(DPL,下次分享),以便于DPL阶段策略的学习以及NLG阶段澄清需求、引导用户、询问、确认、对话结束语等。
知识问答型对话中的DM就是在问句的类型识别与分类的基础上,进行文本的检索以及知识库的匹配,以便于NLG阶段生成用户想要的文本片段或知识库实体。
推荐型对话系统中的DM就是进行用户兴趣的匹配以及推荐内容评分、排序和筛选等,以便于NLG阶段生成更好的给用户推荐的内容。
什么是对话状态?其实状态St就是一种 包含0时刻到t时刻的对话历史、用户目标、意图和槽值对的数据结构 ,这种数据结构可以给DPL阶段提供学习策略(比如定机票时,是询问出发地还是确定订单?)继而完成NLG阶段的回复。
对话状态追踪(DST)的作用: 根据领域(domain)/意图(intention) 、曹植对(slot-value pairs)、之前的状态以及之前系统的Action等来追踪当前状态 。他的 输入是Un(n时刻的意图和槽值对,也叫用户Action)、An-1(n-1时刻的系统Action)和Sn-1(n-1时刻的状态),输出是Sn(n时刻的状态) 。 这里用户Action和系统Action不同,且需要注意
S = {Gn,Un,Hn},Gn是用户目标、Un同上、Hn是聊天的历史,Hn= {U0, A0, U1, A1, , U −1, A −1},S =f(S −1,A −1,U )。
DST涉及到两方面内容: 状态表示、状态追踪 。另外为了解决领域数据不足的问题,DST还有很多迁移学习(Transfer Learning)方面的工作。比如基于特征的迁移学习、基于模型的迁移学习等。
为了在抽象的建模的基础上加深理解,看个小例子:
通过前面的建模和实例化,不难看出对话状态数跟意图和槽值对的数成 指数关系 ,维护所有状态的一个分布非常非常浪费资源,因此需要比较好的状态表示法来减少状态维护的资源开销(相当于特定任务下,更合理的数据结构设计,好的数据结构带来的直接影响就是算法开销变小)。
常见的状态表示法包括两种:
Hidden Information State Model (HIS)
这种方法就是:使用 状态分组 和 状态分割 减少跟踪复杂度。其实就是类似于二分查找、剪枝。
Bayesian Update of Dialogue States (BUDS)
这种方法就是:假设不同槽值的转移概率是相互独立的,或者具有非常简单的依赖关系。这样就将状态数从意图和槽值数的 指数 减少到了 线性 。
下面简单对比下两种不同状态表示法的优缺点:
讲到DST就不得不讲DSTC,DSTC是 Dialog System Technology Challenge ,主要包括6个Challenge。DSTC对DST的作用就相当于目标函数对机器学习任务的作用,真正起到了评估DST技术以及促进DST技术发展的作用。之所以在DST前先说DSTC是因为后面的很多DST的方法是在某个DSTC(大多是DSTC2、DSTC3、DSTC4、DSTC5)上做的。
先来看看DST的形象化
再来看看我总结的DST的方法汇总,注意我没有整理基于规则的DST( 基于规则的方法虽然可以较好利用先验知识从而可以较好解决冷启动等问题,但是需要太多人工、非常不灵活、扩展性和移植性很差、不能同时追踪多种状态 )。
下面分别介绍一下对话系统中的不同DST技术。
论文: ( Lee, SIGDIAL 2013 )( Kim et al, 2014 )
从BUDS中对不同槽值的转移概率是相互独立的假设(是不是很像马尔可夫假设?)以及St的预测需要Un、An-1和Sn-1(转移概率和发射概率),是不是想到了HMM和CRF?没错,前期的基于统计的DST就是用了很多CRF。 n = (S −1, A −1, U )。
Lee, SIGDIAL 2013 的主要思想如下:
Kim et al, 2014 的主要思想如下:
论文: ( Mrkšić et al, ACL 2015 )( Henderson et al, 2013 )( Henderson et al, 2014 )( Zilka el al, 2015 )
关于神经网络的介绍、神经网络的好处和坏处,不再赘述,已经烂大街。基于神经网络的很多方法是在DSTC上做的,这里选取了几篇有针对性的经典论文简单介绍下。
Mrkšić et al, ACL 2015 是ACL2015的一篇论文,它是用RNN进行多领域的对话状态追踪,主要贡献是证明:利用多个领域的数据来训练一个通用的状态追踪模型比利用单领域数据训练追踪模型效果要好。
Henderson et al, 2013 是利用DNN来解决DSTC,它把DST当分类问题,输入时间窗口内对话轮次提取的特征,输出slot值的概率分布。该方法不太容易过拟合,领域迁移性很好。模型结构图如下:
Henderson et al, 2014 ,基于DRNN和无监督的自适应的对话状态鲁棒性跟踪,从论文名字就能看出因为使用DRNN和无监督的自适应导致DST 鲁棒性很好 。
先来看看特征提取的办法:主要提取f,fs,fv三种特征,f是针对原始输入提取,fs和fv是对原始输入中的词做Tag替换得到 泛化特征 。
再来看下模型结构:对slot训练一个模型,利用无监督的自适应学习,将模型泛化到新的domain以便于提高模型的泛化能力。
Zilka el al, 2015 ,基于增量LSTM在DSTC2做对话状态追踪,具体思想如下:
( Williams 2013 )( Mrkšic, ACL 2015 )
目前对话系统数据较少,我比较看好迁移学习在任务型对话中的应用,尤其是DST这种较复杂的任务。
Williams 2013 ,这是通过 多领域学习与泛化 来做对话状态追踪,比较好的解决了数据目标领域数据不足的问题。
Mrkšic, ACL 2015 ,这是ACL 2015的一篇paper,基于RNN做多领域的对话状态追踪,主要贡献是证明:利用多个领域的数据来训练一个通用的状态追踪模型比利用单领域数据训练追踪模型效果要好。顺便说一句,这篇论文涵盖了很多任务型对话领域比较高产的学者。
Shietal, 2016 ,基于 多通道卷积神经网络 做 跨语言 的对话状态跟踪。为每一个slot训练一个多通道CNN(中文character CNN、中文word CNN、英文word CNN),然后跨语言做对话状态追踪,我个人很喜欢这篇paper,也非常推荐大家好好读读这篇paper。
先来看看方法的整体结构:
再来看看多通道CNN的结构图:
最后看看输入之前的预处理:
( Mrkšić et al, ACL 2017 )
这是发表于ACL 2017的一篇论文,个人觉得水平很高。
先来看一下基于word2vec的表示学习模型,本文提出两种架构:NBT-DNN、NBT+CNN,结构图如下:
再来看看整个模型的结构图,它包含语义解码和上下文建模两部分:语义解码:判断槽值对是否出现在当前query;上下文建模:解析上一轮系统Act,系统询问(tq)+ 系统确认(ts+tv)。
模型还有一部分:二元决策器,用来判定当前轮的槽值对的状态。本文的状态更新机制采用简单的基于规则的状态更新机制。
另外,ACL 2018在本文的基础上提出完全NBT( Fully NBT) ,主要变动是修改基于规则的状态更新机制,把更新机制融合到模型来做 联合训练 。具体更新状态的机制包括One-Step Markovian Update( 一步马尔科夫更新,使用两个矩阵学习当前状态和前一时刻状态间的更新关系和系数)和Constrained Markovian Update(约束马尔科夫更新,利用对角线和非对角线来构建前一种方法中的矩阵,对角线学习当前状态和前一时刻状态间的关系,非对角线学习不同value间如何相互影响)。总之,这个工作扩展的比较细致。
其实还有很多种对话状态追踪的方法,比如基于贝叶斯网络做DST、基于POMDP(部分可观测马尔可夫决策过程)做DST等,因为时间相对比较久远,这里不再赘述。
以上介绍了多种对话系统中的DST技术,下面简单总结下它们的优势和劣势。
任何一项技术想要取得进步,那么他的评测方法是至关重要的(就相当于目标函数之于机器学习算法),所以我列出一些关于DST的评估。遗憾的是,目前DST的评估我感觉并不成熟,这也是制约DST发展的一个重要原因,如果谁能想出更好的评估方法或整理出一个业内公认的高质量数据集,那么一定会在DST(甚至是对话系统)领域有一席之地,引用量也会蹭蹭的上涨。
61Dialog State Tracking Challenge (DSTC)
Williams et al 2013, Henderson et al 2014, Henderson et al 2014, Kim et al 2016, Kim et al 2016, Hori et al 2017
62 State Representation:
621 HIS
Steve Young, Jost Schatzmann, Karl Weilhammer, and Hui Ye The hidden information state approach to dialog management
622 BUDS
Blaise Thomson, Jost Schatzmann, and Steve Young Bayesian update of dialogue state for robust dialogue systems
63DST
631 CRF
Sungjin Lee Structured discriminative model for dialog state tracking In Proceedings of the SIGDIAL 2013 Conference Lee, SIGDIAL 2013
Seokhwan Kim and Rafael E Banchs Sequential labeling for tracking dynamic dialog states Kim et al, 2014
632 NN-Based DST
Multi-domain Dialog State Tracking using Recurrent Neural Network, Mrkšić et al, ACL 2015
Deep Neural Network Approach for the Dialog State Tracking Challenge, Henderson et al, 2013
Robust dialog state tracking using delexicalised recurrent neural networks and unsupervised adaptation, Henderson et al, 2014
Incremental lstm-based dialog state tracker, Zilka el al, 2015
633 Neural Belief Tracker
Neural Belief Tracker: Data-Driven Dialogue State Tracking , Mrkšić et al, ACL 2017
634 Multichannel Tracker
A Multichannel Convolutional Neural Network For Cross-language Dialog State Tracking, Shi et al, 2016
635 Transfer learning for DST
6351 Feature based transfer for DST
Jason Williams Multi-domain learning and generalization in dialog state tracking In Proceedings of SIGDIAL Williams 2013
Hang Ren, Weiqun Xu, and Yonghong Yan Markovian discriminative modeling for cross-domain dialog state tracking
6352 Model based transfer for DST
Nikola Mrkšic, Diarmuid O Séaghdha, Blaise Thomson,Milica Gaši ́c, Pei-Hao Su, David Vandyke, Tsung-Hsien Wen, and Steve Young Multi- domain dialog state tracking using recurrent neural networks Mrkšic, ACL 2015
;北卡夏洛特数理金融专业揭秘。以下是同学自己写的学校专业介绍,该同学就读于北卡罗来纳大学夏洛特分校数理金融专业,下面我的介绍包括了申请人背景、申请建议,以及北卡夏洛特数理金融专业的专业情况等,希望能够帮助大家申请!1 破题
UNCC 相信很多大牛看到这个名字都会不知所云吧,UNCC的中文名字是北卡罗来纳大学-夏洛特分校,好吧,我知道,很多童鞋还是没听说过这间学校。其实仅仅在一年前的现在,我也是对这样的非牛校嗤之以鼻的。直到在那个刻骨铭心的隆冬初春,收到从top50学校寄来的一封封拒信,才在无意中发现了他(数理金融项目啊),并且申请了,并且拿到了AD。
2背景
申请的时候是211重点高校商科本科大四在读,G700+,T100+,GPA30+,有银行实习,有发表paper,有海外经历,有各类在校获奖证明。不要拍我,这样的分数被很多学校拒掉也很正常,随着中国本科生就业环境越来越恶劣,外加居民收入的绝对数也确实在年年增长,越来越多的人挤到美国去读MSF、MACC,其实不是你不行,而是申请的人实在是太多了。申请2011fall的童鞋们一定要多申请几个学校,真的,我已开始也很自负,想着凭俺的条件,总有一个top学校会要我,但无奈申请激烈,而且是超乎大家想象的激烈,而且从去年开始,北美本科留学的毕业生已经开始多了起来,和他们这些GPA怪兽比起来,我们真的毫无竞争优势可言。当然,某些排名前一百但是地处沙漠或荒原,或是一个班七八十个中国人的学校我也是不会去的,去了,我怕我会失望。
3城市
也许大家不知道,夏洛特是美国的金融中心之一,市区人口有很大一部分从事金融和相关的工作。BOA的两个总部一个在纽约,一个就在夏洛特,纽约的负责投行业务,夏洛特的负责商业信贷业务。我问起这两家headquarters的系,来学校宣讲的BOA的负责人说道,夏洛特的BOA是NYC的BOA的“mothership“。夏洛特市中心很现代化,但是作为一个纯粹的商业城市,却缺少了一点点人气,白天走在金融区,除了行色匆匆的银行职员,就基本看不到闲人了。之前有人说夏洛特治安差,黑人多,其实也还好啦,而且金融区和学校附近还是很安全的,逛街和上下学基本没有问题。此外,这里是夏洛特山猫队的主场,喜欢NBA的童鞋有福了,2010-2011赛季的对阵火箭,热火和湖人的球票已经基本告罄了。
4学校
UNCC是目前美国大学之中上升非常快的学校,2008年从tier4升到了tier3,而学校很年轻,只有50余年的历史,当然,校园里没有古色古香的建筑,这是一个遗憾。奥巴马在总统竞选之旅中,就把在北卡的其中一站选在了UNCC的校园中。贝尔克商学院可以说是UNCC里很强劲的一支学术力量。学院资金力量雄厚,加上夏洛特四季如春的气候和优美的环境,近几年贝尔克从不少大学挖来了很多牛教授。数理金融作为学院重要的项目,配备的教授也都是学术上十分出色的,其中有BC,Duke,UC-Berkley,Brown,CMU,USC,UIUC,Yale,而威斯康辛大学毕业的Tao-Hsien King,更是业界数一数二的大牛。以上这些教授,都是MF项目中核心课程和选修课程的教授。班里老美比较多,而且这些老美的平均GMAT,不比那些前100大学的MSF项目中的老美平均分低,而且很多同学都是有相关投行和金融经历的,和他们谈谈,对于开阔眼界,获取信息很有帮助。Career Service应该是大家最关心的话题了吧,Belk在这方面也是很不错的。俗话说,背靠大树好乘凉,由于在夏洛特这样一座金融城,找一个相关的金融工作的信息很多,而且由于夏洛特的大银行多,基本都会sponsor你,而不会在身份上卡你。基本上,喜欢招UNCC毕业生的有Wells Fargo,BOA,CitiGroup等巨头,也有很多中等规模的投行和trading firm。此外,学校的career service每周都会组织改简历,培训面试的活动,也有很多的宣讲会在学校举办,可以说,只要做一个有心人,就不会让你失望。
5感想
很多人来读书之前的想法都是,读一个美国排名前几十的商学院,回国体面的工作,毫不掩饰地说,我之前也有同样的想法。但是,请你仔细想一想,作为一个仍旧没有工作经验的Fresh Master,回国就业能有多大的竞争力呢,现在美国留学生在国内早已经不稀奇了。再说了,有多少国内的HR能分得清,并且有耐心去分清华盛顿大学和华盛顿州立大学的区别。所以说,不要太在乎排名,而地点,实在是太重要了,这一点,很多人不来美国,是体会不到的。
6题外话
这里保时捷卡宴新车5万美元,国内110万人民币,七成新宝马3系,4000美元,更不要说8毛钱一打的新鲜鸡蛋和签约免费的iphone。不是叫大家追求物质,但是考虑到国内与这里巨大的工资差距,生活压力的大小,一看便知。很多时候,我们愿意为别人看得见的地方花钱和奋斗,例如名牌服装,却不愿意为别人观察不到的地方花费一丝一毫,比如买盗版碟。在这里,没人会歧视你有没有房,开小破车的和开保时捷的一样的满足和高傲,人还是要追求自己所要为好。
7提醒
a由于中国大陆没有加入任何的国际驾照组织,而北卡州是否承认中国驾照的说法也是众说纷纭,所以来了之后,第一件事儿就是考一个美国驾照,国内的可以带着,但用处不大
b有机会学学C++,JAVA之类的,往简历上一写,找工作会轻松很多
cUNCC申请截止很晚,大家可多上学校网页看看
我觉得你找的这个“Shylon”很好,又谐音,又时髦。我查了一下,是一个新创的名字,是勇者的意思,可以用哦!但Sunny就稍微差一些了,虽然意思接近“向阳”这个名字,但基本都是女生才会用这个名字的。
建议你可以考虑以下几个:
Shane,沙恩,有点像Shine的发音,原自爱尔兰语,是阳光普照的意思。
Shawn,肖恩,希伯来语,是上帝的仁慈的意思
这样至少你两个儿子的英文名至少都保持着SH开头的格式。
“李”在大陆会直接写作“LI”,只有香港人才可能写作“LEE”。所以在一点上,我觉得你也无需多想,就按照official的写法来写会比较好。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)