读论文
Neural Machine Translation by Jointly Learning to Align and Translate

这个论文是在NLP中第一个使用attention机制的论文。他们把attention机制用到了神经网络机器翻译(NMT)上。NMT其实就是一个典型的sequence to sequence模型,也就是一个encoder to decoder模型,传统的NMT使用两个RNN,一个RNN对源语言进行编码,将源语言编码到一个固定维度的中间向量,然后在使用一个RNN进行解码翻译到目标语言。

直接来看这个模型

\(c_{i} = \sum_{j=1}^{T_{x}}\alpha_{i,j}h_{j}\)

\(\alpha_{i,j} = \frac{exp(e_{i,j})}{\sum_{k=1}^{T_{x}}exp(e_{i,k})}\)

\(e_{ij} = a(s_{i-1},h_{j})\)

我们使用一个前馈神经网络来对对齐网络模型\(a\)进行参数化。(在这里有一个知识点需要取了解什么是前馈神经网络)。对于这个前馈神经网络模型,是整体模型的一部分,所以参数会随着整体模型的其他部分异同进行训练更新,而不是单独把这个模型拿出来训练。

值得注意的是这个对齐模型并不是一个隐变量(什么是隐变量在这里有一个解释。这个对齐模型是一个软对齐模型,允许损失函数的梯度进行反向传播并更新(这里我并没有看懂,为啥软对齐模型可以达到这个效果)。换句话讲,这个对齐模型可以和整个翻译模型一起进行训练更新。

我们把计算隐层状态权重和的过程可以理解为一个求期望隐层状态表达的过程。
我们可以把\(\alpha_{i,j}或者是说与它相关\)当做是一个概率。这个概率的含义就是目标单词\(y_{i}\)和源单词\(x_{j}\)对齐的概率。或者说,目标单词\(y_{i}\)是从源单词\(x_{j}\)翻译过来的概率带下。然后对于目标单词\(y_{i}\)来说的,它的环境向量\(c_{i}\)是一个期望中的表达,这个表达是基于annotations(这里指的是所有的隐层状态)和相对应的\(\alpha_{ij}\)的结合计算。

\(\alpha_{i,j}\)或者\(e_{i,j}\)反应出的是\(h_{j}\)和上一层隐层状态\(s_{i-1}\)对于下一个隐层状态\(s_{i}\)和下一个单元输出\(y_{i}\)

解码器应用这个attention机制,从而决定在原始句子中的哪个部分需要花费更多的注意力。通过使用这个机制,编码器消除了一个负担,这个负担就是不得不把所有的原始句子信息经过神经网络由一个固定长度的向量表达。其实用了这个机制,长度也是固定的,只不过对于现在这个机制,这个向量会针对不同的目标单词有着不同的环境向量。

我自己有一个思考,在整个模型训练完成之后,我们得到的应该是一个权重矩阵C。为什么这么说呢,因为针对每个目标单词,我们都有一行的权重(其中这一行的每一个权重值代表的是输入句子中的每个单词的重要程度)。

对于这个权重矩阵\(C_{i}\)是权重矩阵的一行,表示对于目标单词\(y_{i}\)输入句子每个单词对应的重要程度。

对于\(\alpha_{i.j}\),它表示的是一个单词的重要程度,是\(C_{i}\)中的一个具体单词的重要程度。

现在我自己有一种感觉,就是说,这个权重矩阵,学习的重要程度,从现在我直观感受来说,它是一种两种翻译语言的语法关系。是输入句子一个位置对输出句子中的一个位置的影响程度,这个并没有体现出意思之间的对应的关系。

我们使用的是只有一层的多层感知机来计算\(a(s_{i-1},h_{j})=v_{a}^Ttanh(W_{a}s_{i-1}+U_{a}h_{j}\)

(其实这里并没有搞清楚为啥是一个多层感知机模式。多层感知机其实是一个最简单的神经网络模型,如果看做是一个多层感知机,那么输入是\(s_{i-1}\)和\(h_{j}\),怎么会有两个输入呢?)

在原始论文中,作者说\(U_{a}h_{j}\)并没有依赖于\(i\),那么我们可以提前将这个东西算出来减少计算消耗。(那么这一步提前算出来是怎么实现的呢?)

对Neural Machine Translation by Jointly Learning to Align and Translate论文的详解的更多相关文章

  1. 神经机器翻译 - NEURAL MACHINE TRANSLATION BY JOINTLY LEARNING TO ALIGN AND TRANSLATE

    论文:NEURAL MACHINE TRANSLATION BY JOINTLY LEARNING TO ALIGN AND TRANSLATE 综述 背景及问题 背景: 翻译: 翻译模型学习条件分布 ...

  2. [笔记] encoder-decoder NEURAL MACHINE TRANSLATION BY JOINTLY LEARNING TO ALIGN AND TRANSLATE

    原文地址 :[1409.0473] Neural Machine Translation by Jointly Learning to Align and Translate (arxiv.org) ...

  3. 课程五(Sequence Models),第三周(Sequence models & Attention mechanism) —— 1.Programming assignments:Neural Machine Translation with Attention

    Neural Machine Translation Welcome to your first programming assignment for this week! You will buil ...

  4. Sequence Models Week 3 Neural Machine Translation

    Neural Machine Translation Welcome to your first programming assignment for this week! You will buil ...

  5. Effective Approaches to Attention-based Neural Machine Translation(Global和Local attention)

    这篇论文主要是提出了Global attention 和 Local attention 这个论文有一个译文,不过我没细看 Effective Approaches to Attention-base ...

  6. On Using Very Large Target Vocabulary for Neural Machine Translation Candidate Sampling Sampled Softmax

    [softmax分类器的加速器] https://www.tensorflow.org/api_docs/python/tf/nn/sampled_softmax_loss This is a fas ...

  7. 【转载 | 翻译】Visualizing A Neural Machine Translation Model(神经机器翻译模型NMT的可视化)

    转载并翻译Jay Alammar的一篇博文:Visualizing A Neural Machine Translation Model (Mechanics of Seq2seq Models Wi ...

  8. Learning Cocos2d-x for WP8(5)——详解Menu菜单

    原文:Learning Cocos2d-x for WP8(5)--详解Menu菜单 C#(wp7)兄弟篇Learning Cocos2d-x for XNA(5)——详解Menu菜单 菜单是游戏必不 ...

  9. Introduction to Neural Machine Translation - part 1

    The Noise Channel Model \(p(e)\): the language Model \(p(f|e)\): the translation model where, \(e\): ...

随机推荐

  1. Oracle入门基础(1)

    1.数据库系统和数据管理系统的区别? 数据库系统=数据库的管理系统+oper操作员+硬件 2.Oracle的版本   8i /9i   10g/11g   12c(cloud) 3.Oracle主要组 ...

  2. HihoCoder#1509 : 异或排序(二进制)

    题意 题目链接 Sol 挺简单的吧.考虑两个元素什么时候不满足条件 设\(a_i\)与\(a_i + 1\)最高的不同位分别为0 1,显然\(S\)的这一位必须为\(0\),否则这一位必须为\(1\) ...

  3. BizMDM企业主数据管理平台

    类型: 定制服务 软件包: business intelligence integrated industry solution collateral 联系服务商 产品详情 解决方案 概要 在全新的数 ...

  4. 更改Anaconda中Jupyter的默认文件保存目录

    转载:https://blog.csdn.net/u014552678/article/details/62046638 总结:修改Anaconda中的Jupyter Notebook默认工作路径的三 ...

  5. Python基础学习之序列(2)

    通用序列操作 所有序列类型都可以进行某些特定的操作.这些操作包括:索引(indexing).分片(sliceing).加(adding).乖(multiplying)以及检查某个元素是否属于序列的成员 ...

  6. MySQL安装和简单操作

    MySQL数据库安装与配置详解 MySQL的安装请参考下面这篇博客,讲述的非常详细,各种截图也很清晰.http://www.cnblogs.com/sshoub/p/4321640.html MySQ ...

  7. 2018.7.30 Oracle的Blog数据库类型读取和存

    package com.lanqiao.shopping.test; import java.io.BufferedInputStream; import java.io.BufferedOutput ...

  8. 20145238-荆玉茗 《Java程序设计》第6周学习总结

    20145238 <Java程序设计>第6周学习总结 教材学习内容总结 第十章输入和输出 10.1.1 ·如果要将数据从来源中取出,可以使用输入串流,若将数据写入目的地,可以使用输出串流. ...

  9. 原生Servlet 上传文件

    依赖jar <dependency> <groupId>commons-fileupload</groupId> <artifactId>commons ...

  10. 运行时库例程-acc_get_num_devices

    格式C 或 C++: int acc_get_num_devices( acc_device_t ); 描述例程 acc_get_num_devices 返回主机上指定类型的加速器设备数量.输入参数说 ...