为什么要警惕 NLP?

为什么要警惕 NLP?,第1张

http://www.robyeung.com/why-should-you-be-wary-about-nlp/

2 月 17 日,Rob Yeung 博士发表。17 条评论

Facebook 推特 领英

什么是自然语言处理?

神经语言程序设计 (NLP) 是一种教练方法,由 Richard Bandler、John Grinder 和 Frank Pucelik 在 1970 年代设计。然而,许多循证科学家和心理学家对 NLP 持强烈批评态度,有些人甚至将其添加到所谓的“不可信疗法”列表中。

NLP 创建后,其思想主要以易于阅读的书籍和培训计划的形式传播,旨在帮助人们实现变革和成功。甚至自助作家 Tony Robbins 最初也开始教人们 NLP 技术,直到 1980 年代后期的一场诉讼(由 NLP 共同创造者理查德·班德勒(Richard Bandler)提起)。在庭外和解中,罗宾斯同意为罗宾斯在 NLP 认证的每个人向 NLP 协会支付 200 美元。和解后不久,罗宾斯停止了 NLP 技术的培训,而是创建了自己的方法,他称之为神经联想条件反射 (NAC)。

为什么 NLP 如此有争议?

在心理治疗中,有许多所谓的大师创造了自己的治疗技术。其中一些所谓的专家以一种愤世嫉俗的观点创造了自己的方法——出售疗铅圆法以赚钱。这些自称为专家的其他人可能认为他们真的做得很好——即使没有任何科学证据支持他们的说法。

2006 年,一组研究人员进行了一项调查,要求 101 名心理 健康 专业人士对数十种所谓的心理疗法的可信度进行评分。研究人员由约翰诺克罗斯领导,他从罗德岛大学获得临床心理学博士学位。在进行调查时,他是费城斯克兰顿大学的心理学教授。

诺克罗斯和他的团队要求专家(主要由美国心理学会的研究员以及心理 健康 学术期刊的现任和前任编辑)以 1 的等级对各种假设的疗法进行评分(因为“完全没有信誉”) ) 到 5(对于“肯定名誉扫地”)。例如,有一种叫做天使疗法的东西,从业者用它来治疗精神和行为障碍。天使疗法的评分为 4.98 - 非常不可信。用于治疗精神或行为障碍的前世疗法评分为 4.92。

NLP 的评分为 3.87。事实上,它被评为比其他疗法更不可信,例如治疗阴茎嫉妒的心理疗法(其得分略低,为 3.52)。甚至用于治疗精神和行为障碍的针灸也获得了 3.49 的更有利(即不那么不可信)的评分。

悉尼大学研究员 Anthony Grant 指出,许多研究人员“认为 NLP 不是基于证据的(即几乎没有同行评审的证据表明 NLP 确实有效。然后另一方可能会回应说,从业者知道它有效,因为他们已经亲眼目睹了 NLP 客户的重大变化。”

据推测,即使是使用天使疗法和前世疗法的从业者也相信他们通过他们的方法亲眼目睹了重大变化。然而,有些人可能会争辩说,没有 证据的 单纯 信念 实际上可能更好地被视为妄想。

NLP 从业者接受了多少培训?

许多商业上可用的程序表示,它们可以在大约 12 到 15 天内证明人们成为 NLP 的大师级从业者。但御喊是,考虑到英国和美国的大多数咨询或临床心理学家需要三到五年的时间才能获得资格和认证。

NLP 的现代心理学观点是什么?

研究人员和合格的心理学家大多谴责 NLP。在 2019 年发表槐拆塌在 International Coaching Psychology Review 上的 一篇论文中,一组专家写道:“有许多 NLP 的批评者,他们将 NLP 视为一种伪科学、流行心理学甚至是邪教,没有任何证据证明其有效性。”

根据他们自己对 NLP 主题的 90 篇文章的调查,他们得出结论:“总而言之,没有实证研究为仅基于 NLP 工具和技术的辅导有效性提供证据。”

这很重要。他们没有发现只有少数科学研究支持 NLP。他们发现 没有 纸- 零 , 小人物 , 而不是一个 。

举一个例子,考虑由赫特福德大学心理学教授理查德·怀斯曼领导的一系列调查。NLP 认为,人们的眼球运动可以表明他们的精神状态,甚至在他们撒谎的时候。然而,怀斯曼及其同事收集的数据使他们得出结论:“三项研究的结果未能支持 NLP 的主张。”

在最近的另一篇学术论文中,亨利商学院的研究人员乔纳森·帕斯莫尔 (Jonathan Passmore) 和塔蒂亚娜·罗森 (Tatiana Rowson) 回顾了 NLP 的科学并得出结论:“我们毫不犹豫地认为教练心理学家和那些对循证教练感兴趣的人忽略 NLP 是明智之举品牌支持存在明确证据基础的模型、方法和技术。”

一个由托马斯WITKOWSKI独立检讨使用较强的语言,批评NLP“完全从科学借款或表达式提到它,没有任何科学意义的。它的名字已经可以看出——神经语言编程——这是一种残酷的欺骗。在神经元层面,它没有提供任何解释,它与学术语言学或编程没有任何共同之处。” 在论文的结尾,他总结道:“NLP 代表伪科学垃圾,应该永远封存起来。”

如果不是 NLP,那还有什么?

英国国民 健康 服务 (NHS) 指出,以认知行为疗法 (CBT) 为基础的自助书籍、应用程序和课程可能会有用。例如,NHS 网站推荐了一些可以免费访问的应用程序和在线工具。在书籍方面,NHS 网站建议:“检查一本书是否由具有丰富经验并在专业机构(例如英国心理学会)注册的顾问或治疗师撰写。”

论文《Recurrent neural network based language model》简称RNNLM,作者Tomas Mikolov,经典的循环/递归神经语言模型。

提出了一种新的基于递归神经网络的语言模型(RNN LM)及其在语音识别中的应用。

结果表明,与现有的退避语言模型相比,通过使用几个RNN LMs的混合,可以获得大约50%的困惑减少。

语音识别实验表明,当比较针对相同数据量训练的模型时,“华尔街日报”任务的单词错误率降低约18%,而在难度更大的NIST RT05任务上,即使退避模型训练的数据量比RNN LM多得多,单词错误率也减少约5%。

我毕扰们提供了充足的经验证据,以表明连接主义语言模型优于标准的n-gram技术,除了它们的高计算(训练)复杂性。

在我们的工作中,我们使用了一种通常被称为简单的递归神经网络或Elman网络的架构。这可能是递归神经网络的最简单的可能版本,并且非常容易实现和训练。

网络具有输入层 、隐藏层 (也称为上下文层或状态)和输出层 。对网络的时间t的输入是 ,输出表示为 ,并且 是网络的状态(隐藏层)。输入向量 是通过连接表示当前单词的向量 而形成的,并且在时间 从上下文层 中的神返数乱经元输出。然后,输入、隐藏和输出层被计算如下:

其中 是S型激活函数:

并且 是softmax函数:

对于初始化,可以将 设置为小值的向量,如0.1-当处理大量数据时,初始化并不重要。

在接下来的时间步长中, 是 的副本。输入向量 表示使用1-of-N编码和先前上下文层编码的时间 中的字-向量 的大小等于词汇表V的大小(实际上可以是30000−200000)加上上下文层的大小。上下文漏档(隐藏)层的大小通常是30−500个隐藏单元。

基于我们的实验,隐藏层的大小应该反映训练数据量-对于大量的数据,需要大的隐藏层。

把上面的形式写成向量形式:


欢迎分享,转载请注明来源:内存溢出

原文地址: https://outofmemory.cn/yw/12557370.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2023-05-26
下一篇 2023-05-26

发表评论

登录后才能评论

评论列表(0条)

保存