美国纽约州9月27日,谷歌宣布发布谷歌神经网络机器翻译系统软件(GNMT),神经网络机器翻译(NMT)技术入选,大幅提升机器翻译水平。《麻省理工科技评论》杂志MIT TR报道称,它“基本上和人一样”。
结果令人耳目一新。Michael 同行业翻译家张在自己的微信公众平台“译词干金”上做了一个Google翻译引擎和人工翻译的新旧版本对比:下面的“GT1”表示2016年3月GT机器翻译的结果;“GT2”是指2016年10月中下旬GT机器翻译的结果。
旧版的GoogleTranslate是一个你能看懂的“设备文本”:用词正确,整个句子必须在你的头脑中调整,你才知道。最新版本的翻译和人类说话的语序基本一致,但和人类翻译差别不大。
眼前的体验改变,触动了客户和新闻媒体的心:是大家普遍认为能说真话的人工智能技术。科技的力量是非常压倒性的,至少“颠覆了翻译界”。
谷歌的引擎发展了多少?在Google公布的毕业论文中,有几个不同方向的不正确翻译率下降的例子。
其中,英语转西班牙语减少87%,英语转汉语减少58%。
「错误率更低」的原因是什么?我的朋友Shangque.comCTO魏永鹏在接受雷锋网采访时描述了谷歌是如何做到的:
比如汉译英。Google从中文维基百科中随机选取500个句子,让基于统计分析的老引擎PBMT、基于神经网络的GNMT和熟练的翻译员做一遍。译文的翻译质量分数从0到6不等,6为100分。结果是老引擎3.694分,新引擎4.263分,人译4.636分。
差错率的计算方法是:
彭庸告诉记者:“第一,从3.6到4.2,从4.2到4.6,这两个层面的勤奋都是必须要投入的。后一种可能是前一种的10倍以上,但谷歌简单的线性计算显示,差异减少了60%。第二,英汉人工翻译的分数只有4.6,远低于英西人工翻译的分数。这说明作为标准的‘人’不一定可靠,以此来判断也不一定可靠。”
澳大利亚科学研究协会NRC多语言解决方案研究组陈博兴研究员圈了他的微信,并给出了评论:
“Google所做的就是整合了近两年学术界各种神经网络机器翻译的新技术,利用他们强大的工程项目能力和计算能力,构建了一个非常好的系统软件。他们最好的单系统软件,比我用开源系统训练的系统软件,在相同数据下,需要多3个左右的BLEU值。【注:BLEUspecification是美国财政部下属的国家行业标准与技术研究办公室NIST对机器翻译科研水平的评价。其基本原理是机器翻译结果与人工翻译结果的相似度可以打100分(天生不同的人的翻译很难做到“完全一致”,所以100分是一个理想化的值)。2008年,谷歌翻译对NIST英汉机器翻译的评价结果是41.42。】三多BLEU的区别,如果被人分辨,仔细看,能感觉到,但也是小发展,不算进步。
“对于他们(谷歌发布的)文章内容,我认为有两点不足:1。选取的技术都是之前发表的,没有新升级的技术(对Google的规定更高,当然是呵呵呵)。2. 如果我们有这么大的测量和工程项目的能力,可以投入这么多的人力资源,哪怕只是整合现有的技术,我觉得也可以做得更好。比如我可以加上清华和刘洋首先选定的风险最小的训练方法进行训练。这些。”
刘老师提到的刘洋,在接受新闻媒体采访时无奈地表示:“Google所做的,其实是在整合现阶段学术界的一些技术。Google本身的数据信息、计算能力、技术工程师都非常高,所以开发了一个非常强大的基于集成的系统软件,相比传统方式有显著的提升。但是新闻媒体的报道有点浮夸,不能说机器翻译接近人的水平或者完全取代人。在这部作品中,谷歌达不到 ‘颠覆性创新推广’的水平。”
专业评论与单个用户的体验并不完全一致。所以业内人士用心发现了一些有趣的谷歌翻译的例子。澳大利亚博芬翻译公司的赵洁准备回深圳过新年,她正在通过网上查询寻找一家合适的酒店餐厅。各种标准都很好,但是他一看到价格就模棱两可,“这个[/那个 价格挺高的”。老耿在找酒店餐厅正宗中国人的详细介绍。全文“很划算”,谷歌给出的翻译把意思颠倒了。
谷歌的新翻译引擎已经稳步解决了全文翻译的语序问题,但也存在一些无端的问题。
引擎“梅梅达”翻译成“英国和英国”,一个标点符号或者一个同义词的变化都会使其翻译发生很大的变化,甚至译名的含义也会大相径庭。相比之下,经过统计分析基本原理训练的有道在线翻译,其“我觉得睡个好觉”和“我想睡个好觉”的英文翻译是一样的。
“谷歌新引擎的正确性无法追溯。”中国科学院自动化研究所副研究员张佳俊表示,双层神经网络优化算法的物理模型整个计算过程是一个黑箱,人们无法理解和解释程序自动学习和训练的全过程。“谷歌的新引擎大大提高了语言流畅度,但全文满意度没有明显变化。”张佳俊说。
一般来说,统计分析翻译引擎的数据是双语版两端对齐的词、句、句。数据对齐的精度越高,翻译质量就越高。但是,数据信息的精度越高,在具体应用中命中的概率就越低。以前以谷歌强大的计算能力和最大的语言学数据信息量,不可能在各种情况和句子上都达到更高的水平。Google的统计分析翻译引擎的BLEU值很多年都停留在40的水平,无法显著提升。
神经网络的优化算法不再依赖于人对语言的理解(单词、句子、句子翻译两端对齐)。在很多语系中,词被分为英文字母级别(即子词),如词性转换、后缀名等。,并且对整个文本中每个词之间的相关度的衡量更加细腻。Google新翻译引擎的神经网络做到了八层,整个计算过程消耗了极大的计算能力。这个要看Google自己开发设计的TPUCPU,专门做深度神经网络。它的企业耗电量是GPU和FPGA的10倍,而且不外卖。
“神经系统机器翻译的NMT系统软件是一款不错的产品,但与传统的统计分析机器翻译SMT相比,系统软件部署所需的硬件配置投入至少增加了十倍。举个例子,抛开翻译特性,比如你选择一个最近组装的4个GPU的网络服务器,NMT系统软件在这样一个使用价值4万元的多元化网络服务器上的运行速度和吞吐量,已经接近3000台多元化PC上SMT系统软件的特性。假设为了更好的考虑大规模的吞吐量和翻译工作,比如需要100台设备,客户只需要按照小公牛翻译的SMT版本号投入30多万元的硬件配置。但考虑到同样的特点,如果用小公牛来翻译NMT系统软件,很可能要在硬件配置上投入400多万元。真希望硬件配置成本再降一降,让小公牛真正把NMT系统软件翻译成中小企业。”小公牛翻译创始人、东北大学专家教授朱敬波感叹道。
Google新引擎的公布让机器翻译行业的专业人士一致认为,神经网络优化算法的翻译引擎取代传统引擎是行业趋势。但是“替换”是被抛弃还是迭代更新?这是一个很严肃的问题,它代表着机器翻译领域有多少传统的专家学者和从业者能够步入下一步。
张佳俊在10月中下旬发布了一篇毕业论文和一项科研成果。他将一些传统词典的双语版本应用到神经网络的翻译引擎中。由于优化算法不同,该字典不能立即被神经网络的引擎应用。嘉俊寻找一些发表的使用这个词的句子,用传统引擎翻译成英文,然后用这个新形成的数据信息作为神经网络引擎的源数据信息。在训练好的翻译引擎的数据测试中,如果有100个低频词被词典覆盖,接近80个词可以得到合适的翻译,匹配度接近80%。
“如果把现在所有的词典都用你的方式求解到神经网络引擎的语料库里,它最终的词的准确率是不是可以大大提高?”问李小姐边肖。贾军道:“不是。我给的数据信息是传统翻译引擎的翻译,噪音非常大,不能说数据信息越多实际效果越好。”
张佳俊表示,传统产品研发的积累使他在新旧引擎中找到了一些自主继承和创新的方法,并明确提出了新的思路来填补神经网络翻译引擎的发展。
陈博兴研究员表示,“在可预见的未来,机器翻译无法取代人工翻译。尤其是现在,人工翻译的销售市场和机器翻译的销售市场并不重叠。人工翻译指的是高端销售市场,指定非常精准的翻译需求,机器翻译是1,指定不太精准的翻译场景,比如度假旅游,比如浏览网页,比如信息内容监管。2.机器翻译帮助技术专业翻译人员提高工作效率。如果中国对外开放的交流和沟通水平达到目前欧美国家的水平,那么中国的高品位翻译销售市场可能是极其巨大的。对翻译感兴趣的同学,请安心进来。”
“比如法律法规翻译理想是100%,具体工作能做到95、98分就不错了。80、85、95分的质量和收入/报酬的差别不是用五分来衡量的,而是用倍数来衡量的。PE(注:译后写作,一种新的翻译工作模式,译者根据机器翻译的结果进行修改和写作)。如果不能提高很多分,和机器翻译没什么区别,价格和收入都是一样的。”微博中一位优秀的法律法规解读者@readthinker99 ,对翻译版发表了自己的看法。
网络翻译引擎NMT在翻译领域的优势在于,它的结果更符合人们的描述习惯,有些结果可以大量使用。而译后写作的译者,可以更集中精力在垂直的术语句子上,以获得好的译文,这是一件一举两得的好事,提高了成本,降低了成本。
——————————
续集:
大赌注
对待神经网络计算的黑匣子,specificscientific的研发和设计方面的大多数权威专家都抱着和陈博兴先生一样的心态:机器翻译还远远不能理解人的语言,由此可见,深入的跨语言交流必须依靠具有技术类专业外语技能的人力资源的辅助。因为神经网络的深度神经网络方法和基于统计分析的机器翻译优化算法是一样的,不涉及词义的理解。无论现在的神经系统翻译引擎读起来和人的句子有多接近,这个手机软件其实都“听不懂”它计算出来的翻译文本的意思。
人自身认知过程的 *** 作系统还处于很浅的科研环节,神经科学还无法还原人的大脑思考一个难题的整个生理过程。美国科学家、认知学者杰弗里·多伊奇(Jeffreydeutsch)教授认为,“有一个基本的哲学问题很难解决:我们仍然不知道创造力是如何工作的。”所以,人不能复制创造的全过程。基本上,这是人们对自身认知能力和人工智能技术AI保持清醒的一个立足点,但神经网络学者给出了另一种方式。
清华的韩风老师为一本重新定义智能的译本作序,写了《让人脑走下神坛》,写的贯穿了Alphago和李世石对决的全过程。关键论点是物理科学研究早就知道事物或系统软件具有自相似性。按照一种重新分组的方式,应用神经网络的优化算法和足够的计算能力,可以计算出计算机智能的逻辑,可以达到既定的目标。比如Alphago战胜李世石。(整个过程的实际讨论请参考全文)
韩老师指出了大部分机器翻译权威专家都要处理的一个隐性问题:他们觉得有了可靠的能力和认知能力,设备却无法理解人。但是没有人能确定神经网络下一步能计算出什么。那么韩风老师明确提出的概率是不可证伪的。斯蒂芬·霍金和埃隆·马斯克说,设备威胁人也是无法证伪的。
那很有趣。在AI时期,每一个有认知能力的人,每一个有互联网大数据的企业,都会有所反应,垂涎或担心潘多拉的一个小盒子被打开。一大批人满怀激情、自信、喜悦地提前为新AI的开发做准备,衡量当前的数据信息和能力,以及到那一天自己能做什么。如果没完成呢?我们不会失去我们的未来。
(本文已被朋友魏永鹏和胡日乐的技术特长申请)
邹创作
注:阅读相关网站基本建设方法的文章,请移至网站建设教程频道栏目。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)