未加星标

机器翻译不可不知的Seq2Seq模型自然语言处理

字体大小 | |
[商业智能 所属分类 商业智能 | 发布者 店小二03 | 时间 | 作者 红领巾 ] 0人收藏点击收藏

机器翻译不可不知的Seq2Seq模型自然语言处理
模型

前言

Seq2Seq,全称Sequence to Sequence。它是一种通用的编码器——解码器框架,可用于机器翻译、文本摘要、会话建模、图像字幕等场景中。Seq2Seq并不是GNMT(Google Neural Machine Translation)系统的官方开源实现。框架的目的是去完成更广泛的任务,而神经机器翻译只是其中之一。在循环神经网络中我们了解到如何将一个序列转化成定长输出。在本文中,我们将探究如何将一个序列转化成一个不定长的序列输出(如机器翻译中,源语言和目标语言的句子往往并没有相同的长度)。


1、简单入门

(1)设计目标

通用

这个框架最初是为了机器翻译构建的,但是后来使用它完成了各种其他任务,包括文本摘要、会话建模和图像字幕。只要我们的任务,可以将输入数据以一种格式编码并将其以另一种格式解码,我们就可以使用或者扩展这个框架。


可用性

支持多种类型的输入数据,包括标准的原始文本。


重现性

用YAML文件来配置我们的pipelines和models,容易复现。


可扩展性

代码以模块化的方式构建,添加一种新的attention机制或编码器体系结构只需要最小的代码更改。

文档化:所有的代码都使用标准的python文档字符串来记录,并且编写了使用指南来帮助我们着手执行常见的任务。

良好的性能:为了代码的简单性,开发团队并没有试图去尽力压榨每一处可能被拓展的性能,但是对于几乎所有的生产和研究项目,当前的实现已经足够快了。此外,tf-seq2seq还支持分布式训练。


(2)主要概念

Configuration

许多objects都是使用键值对来配置的。这些参数通常以YAML的形式通过配置文件传递,或者直接通过命令行传递。配置通常是嵌套的,如下例所示:


model_params:

attention.class: seq2seq.decoders.attention.AttentionLayerBahdanau

attention.params:

num_units: 512

embedding.dim: 1024

encoder.class: seq2seq.encoders.BidirectionalRNNEncoder

encoder.params:

rnn_cell:

cell_class: LSTMCell

cell_params:

num_units: 512

Input Pipeline

InputPipeline定义了如何读取、解析数据并将数据分隔成特征和标签。如果您想要读取新的数据格式,我们需要实现自己的输入管道。

Encoder(编码)

Decoder(解码)

Model(Attention)


2、Encoder-Decoder

整个过程可以用下面这张图来诠释:



机器翻译不可不知的Seq2Seq模型自然语言处理

图 1:最简单的Encoder-Decoder模型



其中,X、Y均由各自的单词序列组成(X,Y可以是同一种语言,也可以是两种不同的语言):


X = (x1,x2,...,xm)


Y = (y1,y2,...,yn)


Encoder:是将输入序列通过非线性变换编码成一个指定长度的向量C(中间语义表示),得到c有多种方式,最简单的方法就是把Encoder的最后一个隐状态赋值给c,还可以对最后的隐状态做一个变换得到c,也可以对所有的隐状态做变换。


C = F(x1,x2,...,xm)


Decoder:是根据向量C(encoder的输出结果)和之前生成的历史信息y1,y2,...,yn来生成i时刻要生成的单词yi。


yi = G( C , y1,y2,...,yn-1)


下图是一个生成对联的示意图。


机器翻译不可不知的Seq2Seq模型自然语言处理

图 2:生活中的小栗子


机器翻译不可不知的Seq2Seq模型自然语言处理

解码阶段

可以看做编码的逆过程。这个阶段,我们根据给定的语义向量C和之前已经生成的输出序列y1,y2,...,yt-1来预测下一个输出的单词yt,即


机器翻译不可不知的Seq2Seq模型自然语言处理

其中s是输出RNN(即RNN解码器)中的隐藏层,C代表之前编码器得到的语义向量,yt-1表示上个时间段的输出,反过来作为这个时间段的输入。g可以是一个非线性的多层神经网络,产生词典中各个词语属于yt的概率。


3、Attention模型

encoder-decoder模型虽然非常经典,但是局限性也非常大。较大的局限性就在于编码和解码之间的联系就是一个固定长度的语义向量C。也就是说,编码器要将整个序列的信息压缩进一个固定长度的向量中去。但是这样做有两个弊端,一是语义向量无法完全表示整个序列的信息,二是先输入的内容携带的信息会被后输入的信息稀释掉。输入序列越长,这个现象就越严重。这就使得在解码的时候一开始就没有获得输入序列足够的信息, 那么解码时准确率就要打一定折扣。


为了解决上述问题,在 Seq2Seq出现一年之后,Attention模型被提出了。该模型在产生输出的时候,会产生一个注意力范围来表示接下来输出的时候要重点关注输入序列的哪些部分,然后根据关注的区域来产生下一个输出,如此反复。attention 和人的一些行为特征有一定相似之处,人在看一段话的时候,通常只会重点注意具有信息量的词,而非全部词,即人会赋予每个词的注意力权重不同。attention 模型虽然增加了模型的训练难度,但提升了文本生成的效果。模型的大概示意图如下。



机器翻译不可不知的Seq2Seq模型自然语言处理

图 3:经典的attention模型


每一个c会自动去选取与当前所要输出的y最合适的上下文信息。具体来说,我们用 aij 衡量编码中第j阶段的hj和解码时第i阶段的相关性,最终Decoder中第i阶段的输入的上下文信息 ci 就来自于所有 hj对 aij的加权和。


机器翻译不可不知的Seq2Seq模型自然语言处理

图 4:不同关注度示意图

输入的序列是“我爱中国”,因此,Encoder中的h1、h2、h3、h4就可以分别看做是“我”、“爱”、“中”、“国”所代表的信息。在翻译成英语时,第一个上下文c1应该和“我”这个字最相关,因此对应的 a11就比较大,而相应的 a12 、a13 、 a14 就比较小。c2应该和“爱”最相关,因此对应的 a22 就比较大。最后的c3和h3、h4最相关,因此 a33 、 a34的值就比较大。具体模型权重 aij 是如何计算出来的呢?


比如:

输入的是英文句子:Tom chase Jerry,生成:“汤姆”,“追逐”,“杰瑞”。

注意力分配概率分布值的通用计算过程:


机器翻译不可不知的Seq2Seq模型自然语言处理

图 5:权重计算示意图

当前输出词Yi针对某一个输入词j的注意力权重由当前的隐层Hi,以及输入词j的隐层状态(hj)共同决定;然后再接一个sofrmax得到0-1的概率值。即通过函数F(hj,Hi)来获得目标单词Yi和每个输入单词对应的对齐可能性。更多细节,请大家参看知乎何之源的文章,文末会给出文章链接。


4、CNN的seq2seq

现在大多数场景下使用的Seq2Seq模型是基于RNN构成的,虽然取得了不错的效果,但也有一些学者发现使用CNN来替换Seq2Seq中的encoder或decoder可以达到更好的效果。最近,FaceBook发布了一篇论文:《Convolutional Sequence to Sequence Learning》,提出了完全使用CNN来构成Seq2Seq模型,用于机器翻译,超越了谷歌创造的基于LSTM机器翻译的效果。此网络获得暂时性胜利的重要原因在于采用了很多的窍门,这些技巧值得学习:


捕获long-distance依赖关系

底层的CNN捕捉相聚较近的词之间的依赖关系,高层CNN捕捉较远词之间的依赖关系。通过层次化的结构,实现了类似RNN(LSTM)捕捉长度在20个词以上的Sequence的依赖关系的功能。


效率高

假设一个sequence序列长度为n,采用RNN(LSTM)对其进行建模 需要进行n次操作,时间复杂度O(n)。相比,采用层叠CNN只需要进行n/k次操作,时间复杂度O(n/k),k为卷积窗口大小。


并行化实现

RNN对sequence的建模依赖于序列的历史信息,因此不能并行实现。相比,层叠CNN对整个sequence进行卷积,不依赖序列历史信息,可以并行实现,特别是在工业生产,面临处理大数据量和实时要求比较高的情况下,模型训练更快。


融合多层attention

融合了Residual connection、liner mapping的多层attention。通过attention决定输入的哪些信息是重要的,并逐步往下传递。把encoder的输出和decoder的输出做点乘(dot products),再归一化,再乘以encoder的输入X之后做为权重化后的结果加入到decoder中预测目标语言序列。


gate mechanism

采用GLU做为gate mechanism。GLU单元激活方式如下公式所示:



机器翻译不可不知的Seq2Seq模型自然语言处理

进行了梯度裁剪和精细的权重初始化,加速模型训练和收敛

基于CNN的seq2seq模型和基于LSTM的Seq2Seq模型孰好孰坏,我们不能妄加评判。采用CNN的Seq2Seq较大的优点在于速度快,效率高,缺点就是需要调整的参数太多。在CNN和RNN用于NLP问题时,CNN也是可行的,且网络结构搭建更加灵活,效率高,由于RNN训练时往往需要前一时刻的状态,很难并行,特别是在大数据集上,CNN-Seq2Seq往往能取得比RNN-Seq2Seq更好的效果。


5、应用领域

机器翻译


机器翻译不可不知的Seq2Seq模型自然语言处理

图 6:采用Seq2Seq效果对比


从图像可以看出,模型中的语境向量很明显的包涵了输入序列的语言意义,能够将由不同次序所产生的不同意思的语句划分开来,这对于提升机器翻译的准确率很有帮助。当前,主流的在线翻译系统都是基于深度学习模型来构建的,包括 Google、百度等。


语音识别

输入是语音信号序列,输出是文字序列。


文本摘要

输入是一段文本序列,输出是这段文本序列的摘要序列。通常将文本摘要方法分为两类,extractive 抽取式摘要和 abstractive 生成式摘要。前者是从一篇文档或者多篇文档中通过排序找出最有信息量的句子,组合成摘要;后者类似人类编辑一样,通过理解全文的内容,然后用简练的话将全文概括出来。在应用中,extractive摘要方法更加实用一些,也被广泛使用,但在连贯性、一致性上存在一定的问题,需要进行一些后处理;abstractive 摘要方法可以很好地解决这些问题,但研究起来非常困难。


对话生成

Seq2Seq 模型提出之后,就有很多的工作将其应用在 Chatbot 任务上,希望可以通过海量的数据来训练模型,做出一个智能体,可以回答任何开放性的问题;而另外一拨人,研究如何将 Seq2Seq 模型配合当前的知识库来做面向具体任务的 Chatbot,在一个非常垂直的领域(比如:购买电影票等)也取得了一定的进展。


机器翻译不可不知的Seq2Seq模型自然语言处理

图 7:对话生成Chatbot


诗词生成

让机器为你写诗并不是一个遥远的梦,Seq2Seq 模型一个非常有趣的应用正是诗词生成,即给定诗词的上一句来生成下一句。

生成代码补全


机器翻译不可不知的Seq2Seq模型自然语言处理

图 8:代码补全示意图


预训练

2015年,Google提出了将Seq2Seq的自动编码器作为LSTM文本分类的一个预训练步骤,从而提高了分类的稳定性。这使得Seq2Seq技术的目的不再局限于得到序列本身,为其应用领域翻开了崭新的一页。


阅读理解

将输入的文章和问题分别编码,再对其进行解码得到问题的答案。


小结

Seq-to-Seq模型从一开始在机器翻译领域被提出,到后来被广泛应用到NLP各个领域,原因就在于其对序列数据的完美使用,而且解决了以前RNN模型输出维度固定的难题,所以很快得到了推广。但Seq-to-Seq不是万能药,只有在合适的场景,它才能发挥它较大的作用。


参考资料

源码地址:https://github.com/google/seq2seq

《Convolutional Sequence to Sequence Learning》:

https://link.zhihu.com/?target=https%3A//arxiv.org/abs/1705.03122

《Language modeling with gated linear units》:

https://link.zhihu.com/?target=https%3A//arxiv.org/abs/1612.08083

《A Convolutional Encoder Model for Neural Machine Translation》:

https://link.zhihu.com/?target=https%3A//arxiv.org/abs/1611.02344

Google Neural Machine Translation:

https://research.googleblog.com/2016/09/a-neural-network-for-machine.html

简书:Datartisan

https://www.jianshu.com/p/124b777e0c55

知乎作者:李宁

https://zhuanlan.zhihu.com/p/30516984

知乎作者:何之源

https://zhuanlan.zhihu.com/p/28054589

PaperWeekly:张俊

https://zhuanlan.zhihu.com/p/26753131


欢迎加入本站公开兴趣群

商业智能与数据分析群

兴趣范围包括各种让数据产生价值的办法,实际应用案例分享与讨论,分析工具,ETL工具,数据仓库,数据挖掘工具,报表系统等全方位知识

QQ群:418451831

tags: #160,Seq2Seq,序列,模型,https,输入,RNN,attention,com,输出,Sequence,encoder,Encoder,翻译
分页:12
转载请注明
本文标题:机器翻译不可不知的Seq2Seq模型自然语言处理
本站链接:https://www.codesec.net/view/576559.html


1.凡CodeSecTeam转载的文章,均出自其它媒体或其他官网介绍,目的在于传递更多的信息,并不代表本站赞同其观点和其真实性负责;
2.转载的文章仅代表原创作者观点,与本站无关。其原创性以及文中陈述文字和内容未经本站证实,本站对该文以及其中全部或者部分内容、文字的真实性、完整性、及时性,不作出任何保证或承若;
3.如本站转载稿涉及版权等问题,请作者及时联系本站,我们会及时处理。
登录后可拥有收藏文章、关注作者等权限...
技术大类 技术大类 | 商业智能 | 评论(0) | 阅读(233)