对Neural Machine Translation by Jointly Learning to Align and Translate论文的详解
读论文
Neural Machine Translation by Jointly Learning to Align and Translate
这个论文是在NLP中第一个使用attention机制的论文。他们把attention机制用到了神经网络机器翻译(NMT)上。NMT其实就是一个典型的sequence to sequence模型,也就是一个encoder to decoder模型,传统的NMT使用两个RNN,一个RNN对源语言进行编码,将源语言编码到一个固定维度的中间向量,然后在使用一个RNN进行解码翻译到目标语言。
直接来看这个模型
\(c_{i} = \sum_{j=1}^{T_{x}}\alpha_{i,j}h_{j}\)
\(\alpha_{i,j} = \frac{exp(e_{i,j})}{\sum_{k=1}^{T_{x}}exp(e_{i,k})}\)
\(e_{ij} = a(s_{i-1},h_{j})\)
我们使用一个前馈神经网络来对对齐网络模型\(a\)进行参数化。(在这里有一个知识点需要取了解什么是前馈神经网络)。对于这个前馈神经网络模型,是整体模型的一部分,所以参数会随着整体模型的其他部分异同进行训练更新,而不是单独把这个模型拿出来训练。
值得注意的是这个对齐模型并不是一个隐变量(什么是隐变量在这里有一个解释。这个对齐模型是一个软对齐模型,允许损失函数的梯度进行反向传播并更新(这里我并没有看懂,为啥软对齐模型可以达到这个效果)。换句话讲,这个对齐模型可以和整个翻译模型一起进行训练更新。
我们把计算隐层状态权重和的过程可以理解为一个求期望隐层状态表达的过程。
我们可以把\(\alpha_{i,j}或者是说与它相关\)当做是一个概率。这个概率的含义就是目标单词\(y_{i}\)和源单词\(x_{j}\)对齐的概率。或者说,目标单词\(y_{i}\)是从源单词\(x_{j}\)翻译过来的概率带下。然后对于目标单词\(y_{i}\)来说的,它的环境向量\(c_{i}\)是一个期望中的表达,这个表达是基于annotations(这里指的是所有的隐层状态)和相对应的\(\alpha_{ij}\)的结合计算。
\(\alpha_{i,j}\)或者\(e_{i,j}\)反应出的是\(h_{j}\)和上一层隐层状态\(s_{i-1}\)对于下一个隐层状态\(s_{i}\)和下一个单元输出\(y_{i}\)
解码器应用这个attention机制,从而决定在原始句子中的哪个部分需要花费更多的注意力。通过使用这个机制,编码器消除了一个负担,这个负担就是不得不把所有的原始句子信息经过神经网络由一个固定长度的向量表达。其实用了这个机制,长度也是固定的,只不过对于现在这个机制,这个向量会针对不同的目标单词有着不同的环境向量。
我自己有一个思考,在整个模型训练完成之后,我们得到的应该是一个权重矩阵C。为什么这么说呢,因为针对每个目标单词,我们都有一行的权重(其中这一行的每一个权重值代表的是输入句子中的每个单词的重要程度)。
对于这个权重矩阵\(C_{i}\)是权重矩阵的一行,表示对于目标单词\(y_{i}\)输入句子每个单词对应的重要程度。
对于\(\alpha_{i.j}\),它表示的是一个单词的重要程度,是\(C_{i}\)中的一个具体单词的重要程度。
现在我自己有一种感觉,就是说,这个权重矩阵,学习的重要程度,从现在我直观感受来说,它是一种两种翻译语言的语法关系。是输入句子一个位置对输出句子中的一个位置的影响程度,这个并没有体现出意思之间的对应的关系。
我们使用的是只有一层的多层感知机来计算\(a(s_{i-1},h_{j})=v_{a}^Ttanh(W_{a}s_{i-1}+U_{a}h_{j}\)
(其实这里并没有搞清楚为啥是一个多层感知机模式。多层感知机其实是一个最简单的神经网络模型,如果看做是一个多层感知机,那么输入是\(s_{i-1}\)和\(h_{j}\),怎么会有两个输入呢?)
在原始论文中,作者说\(U_{a}h_{j}\)并没有依赖于\(i\),那么我们可以提前将这个东西算出来减少计算消耗。(那么这一步提前算出来是怎么实现的呢?)
对Neural Machine Translation by Jointly Learning to Align and Translate论文的详解的更多相关文章
- 神经机器翻译 - NEURAL MACHINE TRANSLATION BY JOINTLY LEARNING TO ALIGN AND TRANSLATE
论文:NEURAL MACHINE TRANSLATION BY JOINTLY LEARNING TO ALIGN AND TRANSLATE 综述 背景及问题 背景: 翻译: 翻译模型学习条件分布 ...
- [笔记] encoder-decoder NEURAL MACHINE TRANSLATION BY JOINTLY LEARNING TO ALIGN AND TRANSLATE
原文地址 :[1409.0473] Neural Machine Translation by Jointly Learning to Align and Translate (arxiv.org) ...
- 课程五(Sequence Models),第三周(Sequence models & Attention mechanism) —— 1.Programming assignments:Neural Machine Translation with Attention
Neural Machine Translation Welcome to your first programming assignment for this week! You will buil ...
- Sequence Models Week 3 Neural Machine Translation
Neural Machine Translation Welcome to your first programming assignment for this week! You will buil ...
- Effective Approaches to Attention-based Neural Machine Translation(Global和Local attention)
这篇论文主要是提出了Global attention 和 Local attention 这个论文有一个译文,不过我没细看 Effective Approaches to Attention-base ...
- On Using Very Large Target Vocabulary for Neural Machine Translation Candidate Sampling Sampled Softmax
[softmax分类器的加速器] https://www.tensorflow.org/api_docs/python/tf/nn/sampled_softmax_loss This is a fas ...
- 【转载 | 翻译】Visualizing A Neural Machine Translation Model(神经机器翻译模型NMT的可视化)
转载并翻译Jay Alammar的一篇博文:Visualizing A Neural Machine Translation Model (Mechanics of Seq2seq Models Wi ...
- Learning Cocos2d-x for WP8(5)——详解Menu菜单
原文:Learning Cocos2d-x for WP8(5)--详解Menu菜单 C#(wp7)兄弟篇Learning Cocos2d-x for XNA(5)——详解Menu菜单 菜单是游戏必不 ...
- Introduction to Neural Machine Translation - part 1
The Noise Channel Model \(p(e)\): the language Model \(p(f|e)\): the translation model where, \(e\): ...
随机推荐
- springboot2.x如何添加事务
什么时候需要添加事务呢?一般情况下,如果该方法有两条SQL语句或者以上都需要添加(个人感觉:)). 首先需要在我们的启动类加上 @EnableTransactionManagement //开启事务管 ...
- poj 2486 树形DP n选m连续路径
题目连接:http://acm.hust.edu.cn/vjudge/problem/18071 资料连接: http://blog.csdn.net/woshi250hua/article/deta ...
- cf633F. The Chocolate Spree(树形dp)
题意 题目链接 \(n\)个节点的树,点有点权,找出互不相交的两条链,使得权值和最大 Sol 这辈子也不会写树形dp的 也就是有几种情况,可以讨论一下.. 下文的"最大值"指的是& ...
- Shader笔记
1,渲染队列值小的先渲染,值大的后渲染 2,zTest,zWrite zTest:LEqua zWrite:On 则:zWrite中,深度值小于深度值缓冲区的值会被通过 参考:http://www.c ...
- PHP switch分支语句中省略break后还会执行其他case的原因分析
请分析以下PHP代码的输出结果: $a= 'dog'; switch($a) { case 'cat': echo "\$a is cat"; case 'dog': echo & ...
- oracle的数值数据类型和兼容细分类型
Oracle存储数值类型的数据不区分int .double .float 等类型,统一使用number(p,s)来存储. 基本类型为 NUMBER(P,S) P范围1到38 S 范围 -84 到 12 ...
- bootstrap-table之通用方法( 时间控件,导出,动态下拉框, 表单验证 ,选中与获取信息)
1.bootstrap-table 单击单行选中 $('#gzrwTable').on('click-row.bs.table', function(e, row, $element) { $('.s ...
- 【CSS】等高布局
1. 负margin: margin-bottom:-3000px; padding-bottom:3000px; 再配合父标签的overflow:hidden属性即可实现高度自动相等的效果. ...
- mysql语句的相关操作整理
事实证明,如果不经常跟代码,语句打交道,人家可是会翻脸不认人的,大脑也会觉得一脸懵逼,不知道做错了啥,这次长点记性了,把语句整理出来,不仅加强对sql语句的记忆,还能有个笔记,以后大脑懵逼了还能回来看 ...
- MySQL数据库实验四:嵌套查询
实验四 嵌套查询 一.实验目的 掌握SELECT语句的嵌套使用,实现表的复杂查询,进一步理解SELECT语句的高级使用方法. 二.实验环境 三.实验示例 1. 查询与“刘晨”在同一 ...