/* 版权声明:能够随意转载。转载时请标明文章原始出处和作者信息 .*/

author: 张俊林

要是关注深度学习在自然语言处理方面的研究进展,我相信你一定听说过Attention Model(后文有时会简称AM模型)这个词。

AM模型应该说是过去一年来NLP领域中的重要进展之中的一个。在非常多场景被证明有效。听起来AM非常高大上,事实上它的基本思想是相当直观简洁的。本文作者能够对灯发誓:在你读完这篇啰里啰嗦的文章及其兴许文章后,一定能够透彻了解AM究竟是什么,以及轻易看懂不论什么有关论文看上去复杂的数学公式部分。

怎么样,这广告打的挺有吸引力吧,尤其是对那些患有数学公式帕金森病的患者。

在正戏开演前,我们先来点题外话。

|引言及废话

你应该经常听到被捉奸在床的男性经常感叹地说一句话:女性的第六感通常都非常准,当然这里的女性通常是特指这位男性的老婆或者女友,当然也可能是他的某位具有女性气质的男友。

要我说,男人的第六感事实上也不差(这里的“男人”特指本文作者本人,当然非上文所引用的“男性”。为避免混淆特做声明)。当我第一次看到机器学习领域中的Attention Model这个名字的时候,我的第一直觉就是:这是从认知心理学里面的人脑注意力模型引入的概念。若干年前,也就是在我年轻不懂事的花样年华里,曾有一阵子沉迷于人脑的工作机制,大量阅读了认知心理学方面的书籍和论文。而一般注意力模型会作为书籍的单独一章来讲。以下请同意我显摆一下鄙人渊博的知识。

注意力这东西事实上挺有意思,可是非常easy被人忽略。让我们来直观地体会一下什么是人脑中的注意力模型。

首先,请您睁开眼并确认自己处于意识清醒状态。第二步。请找到本文近期出现的一个“Attention Model”字眼(就是“字眼”前面的两个英文单词,…^@@^)并盯住看三秒钟。好。假设此刻时间停止。在这三秒钟你眼中和脑中看到的是什么?对了,就是“Attention Model”这两个词,可是你应该意识到,事实上你眼中是有除了这两个单词外的整个一副画面的,可是在你盯着看的这三秒钟,时间精巧,万物无息,仿佛这个世界仅仅有我和你…..对不起,串景了,仿佛这个世界仅仅有“Attention Model”这两个单词。这是什么?这就是人脑的注意力模型,就是说你看到了整幅画面,但在特定的时刻t,你的意识和注意力的焦点是集中在画面中的某一个部分上。其它部分尽管还在你的眼中。可是你分配给它们的注意力资源是非常少的。

事实上,仅仅要你睁着眼,注意力模型就无时不刻在你身上发挥作用。比方你过马路。事实上你的注意力会被很多其它地分配给红绿灯和来往的车辆上,尽管此时你看到了整个世界。比方你非常精心地偶遇到了你心仪的异性。此刻你的注意力会很多其它的分配在此时神光四射的异性身上,尽管此刻你看到了整个世界,可是它们对你来说跟不存在是一样的…..

这就是人脑的注意力模型,说究竟是一种资源分配模型,在某个特定时刻,你的注意力总是集中在画面中的某个焦点部分,而对其它部分视而不见。

事实上吧,深度学习里面的注意力模型工作机制啊,它跟你看见心动异性时荷尔蒙驱动的注意力分配机制是一样一样的。

好,前戏结束。正戏开场。


|Encoder-Decoder框架

本文仅仅谈谈文本处理领域的AM模型。在图片处理或者(图片-图片标题)生成等任务中也有非常多场景会应用AM模型,可是我们此处仅仅谈文本领域的AM模型,事实上图片领域AM的机制也是同样的。

要提文本处理领域的AM模型,就不得不先谈Encoder-Decoder框架,由于眼下绝大多数文献中出现的AM模型是附着在Encoder-Decoder框架下的。当然。事实上AM模型能够看作一种通用的思想。本身并不依赖于Encoder-Decoder模型。这点须要注意。

Encoder-Decoder框架能够看作是一种文本处理领域的研究模式。应用场景异常广泛。本身就值得非常仔细地谈一下,可是由于本文的注意力焦点在AM模型,所以此处我们就仅仅谈一些不得不谈的内容,详细的Encoder-Decoder模型以后考虑专文介绍。下图是文本处理领域里经常使用的Encoder-Decoder框架最抽象的一种表示:

图1. 抽象的Encoder-Decoder框架

Encoder-Decoder框架能够这么直观地去理解:能够把它看作适合处理由一个句子(或篇章)生成另外一个句子(或篇章)的通用处理模型。

对于句子对<X,Y>,我们的目标是给定输入句子X,期待通过Encoder-Decoder框架来生成目标句子Y。

X和Y能够是同一种语言,也能够是两种不同的语言。而X和Y分别由各自的单词序列构成:

Encoder顾名思义就是对输入句子X进行编码。将输入句子通过非线性变换转化为中间语义表示C:

对于解码器Decoder来说。其任务是依据句子X的中间语义表示C和之前已经生成的历史信息y1,y2….yi-1来生成i时刻要生成的单词yi

每一个yi都依次这么产生。那么看起来就是整个系统依据输入句子X生成了目标句子Y。

Encoder-Decoder是个非常通用的计算框架。至于Encoder和Decoder详细使用什么模型都是由研究者自己定的。常见的比方CNN/RNN/BiRNN/GRU/LSTM/Deep LSTM等,这里的变化组合非常多,而非常可能一种新的组合就能攒篇论文。所以有时候科研里的创新就是这么简单。比方我用CNN作为Encoder,用RNN作为Decoder。你用BiRNN做为Encoder,用深层LSTM作为Decoder,那么就是一个创新。

所以正准备跳楼的憋着劲想攒论文毕业的同学能够从天台下来了。当然是走下来。不是让你跳下来。你能够好好琢磨一下这个模型。把各种排列组合都试试。仅仅要你能提出一种新的组合并被证明有效,那恭喜你:施主,你能够毕业了。

扯远了,再拉回来。

Encoder-Decoder是个创新游戏大杀器,一方面如上所述,能够搞各种不同的模型组合,另外一方面它的应用场景多得不得了。比方对于机器翻译来说。<X,Y>就是相应不同语言的句子。比方X是英语句子,Y是相应的中文句子翻译。再比方对于文本摘要来说,X就是一篇文章,Y就是相应的摘要。再比方对于对话机器人来说,X就是某人的一句话,Y就是对话机器人的应答;再比方……总之。太多了。哎,那位施主,听老衲的话。赶紧从天台下来吧。无数创新在等着你发掘呢。

|Attention Model

图1中展示的Encoder-Decoder模型是没有体现出“注意力模型”的,所以能够把它看作是注意力不集中的分心模型。

为什么说它注意力不集中呢?请观察下目标句子Y中每一个单词的生成步骤例如以下:

当中f是decoder的非线性变换函数。从这里能够看出,在生成目标句子的单词时,不论生成哪个单词,是y1,y2也好,还是y3也好。他们使用的句子X的语义编码C都是一样的,没有不论什么差别。而语义编码C是由句子X的每一个单词经过Encoder 编码产生的,这意味着不论是生成哪个单词,y1,y2还是y3,事实上句子X中随意单词对生成某个目标单词yi来说影响力都是同样的,没有不论什么差别(事实上假设Encoder是RNN的话,理论上越是后输入的单词影响越大。并不是等权的。预计这也是为何Google提出Sequence to Sequence模型时发现把输入句子逆序输入做翻译效果会更好的小Trick的原因)。这就是为何说这个模型没有体现出注意力的缘由。这相似于你看到眼前的画面。可是没有注意焦点一样。假设拿机器翻译来解释这个分心模型的Encoder-Decoder框架更好理解。比方输入的是英文句子:Tom chase Jerry,Encoder-Decoder框架逐步生成中文单词:“汤姆”。“追逐”,“杰瑞”。

在翻译“杰瑞”这个中文单词的时候。分心模型里面的每一个英文单词对于翻译目标单词“杰瑞”贡献是同样的,非常明显这里不太合理。显然“Jerry”对于翻译成“杰瑞”更重要,可是分心模型是无法体现这一点的,这就是为何说它没有引入注意力的原因。没有引入注意力的模型在输入句子比較短的时候预计问题不大,可是假设输入句子比較长,此时全部语义全然通过一个中间语义向量来表示,单词自身的信息已经消失,可想而知会丢失非常多细节信息。这也是为何要引入注意力模型的重要原因。

上面的样例中,假设引入AM模型的话,应该在翻译“杰瑞”的时候,体现出英文单词对于翻译当前中文单词不同的影响程度,比方给出相似以下一个概率分布值:

(Tom,0.3)(Chase,0.2)(Jerry,0.5)

每一个英文单词的概率代表了翻译当前单词“杰瑞”时。注意力分配模型分配给不同英文单词的注意力大小。这对于正确翻译目标语单词肯定是有帮助的,由于引入了新的信息。同理,目标句子中的每一个单词都应该学会其相应的源语句子中单词的注意力分配概率信息。这意味着在生成每一个单词Yi的时候,原先都是同样的中间语义表示C会替换成依据当前生成单词而不断变化的Ci。理解AM模型的关键就是这里,即由固定的中间语义表示C换成了依据当前输出单词来调整成添加注意力模型的变化的Ci。添加了AM模型的Encoder-Decoder框架理解起来如图2所看到的。

图2 引入AM模型的Encoder-Decoder框架

即生成目标句子单词的过程成了以下的形式:

而每一个Ci可能相应着不同的源语句子单词的注意力分配概率分布。比方对于上面的英汉翻译来说,其相应的信息可能例如以下:

当中,f2函数代表Encoder对输入英文单词的某种变换函数。比方假设Encoder是用的RNN模型的话,这个f2函数的结果往往是某个时刻输入xi后隐层节点的状态值;g代表Encoder依据单词的中间表示合成整个句子中间语义表示的变换函数,一般的做法中。g函数就是对构成元素加权求和,也就是经常在论文里看到的下列公式:

假设Ci中那个i就是上面的“汤姆”,那么Tx就是3,代表输入句子的长度,h1=f(“Tom”),h2=f(“Chase”),h3=f(“Jerry”),相应的注意力模型权值各自是0.6,0.2,0.2。所以g函数就是个加权求和函数。假设形象表示的话,翻译中文单词“汤姆”的时候,数学公式相应的中间语义表示Ci的形成过程相似下图:

图3 Ci的形成过程

这里另一个问题:生成目标句子某个单词。比方“汤姆”的时候,你怎么知道AM模型所须要的输入句子单词注意力分配概率分布值呢?就是说“汤姆”相应的概率分布:

(Tom,0.6)(Chase,0.2)(Jerry,0.2)

是怎样得到的呢?

为了便于说明,我们假设对图1的非AM模型的Encoder-Decoder框架进行细化,Encoder採用RNN模型,Decoder也採用RNN模型,这是比較常见的一种模型配置,则图1的图转换为下图:

图4 RNN作为详细模型的Encoder-Decoder框架

那么用下图能够较为便捷地说明注意力分配概率分布值的通用计算过程:

图5 AM注意力分配概率计算

对于採用RNN的Decoder来说,假设要生成yi单词,在时刻i,我们是能够知道在生成Yi之前的隐层节点i时刻的输出值Hi的,而我们的目的是要计算生成Yi时的输入句子单词“Tom”、“Chase”、“Jerry”对Yi来说的注意力分配概率分布,那么能够用i时刻的隐层节点状态Hi去一一和输入句子中每一个单词相应的RNN隐层节点状态hj进行对照。即通过函数F(hj,Hi)来获得目标单词Yi和每一个输入单词相应的对齐可能性,这个F函数在不同论文里可能会採取不同的方法,然后函数F的输出经过Softmax进行归一化就得到了符合概率分布取值区间的注意力分配概率分布数值。

图5显示的是当输出单词为“汤姆”时刻相应的输入句子单词的对齐概率。绝大多数AM模型都是採取上述的计算框架来计算注意力分配概率分布信息,差别仅仅是在F的定义上可能有所不同。

上述内容就是论文里面经常提到的Soft Attention Model的基本思想,你能在文献里面看到的大多数AM模型基本就是这个模型,差别非常可能仅仅是把这个模型用来解决不同的应用问题。那么怎么理解AM模型的物理含义呢?一般文献里会把AM模型看作是单词对齐模型,这是非常有道理的。

目标句子生成的每一个单词相应输入句子单词的概率分布能够理解为输入句子单词和这个目标生成单词的对齐概率。这在机器翻译语境下是非常直观的:传统的统计机器翻译一般在做的过程中会专门有一个短语对齐的步骤,而注意力模型事实上起的是同样的作用。在其它应用里面把AM模型理解成输入句子和目标句子单词之间的对齐概率也是非常顺畅的想法。

当然,我认为从概念上理解的话,把AM模型理解成影响力模型也是合理的。就是说生成目标单词的时候,输入句子每一个单词对于生成这个单词有多大的影响程度。这样的想法也是比較好理解AM模型物理意义的一种思维方式。

图6是论文“A Neural Attention Model for Sentence Summarization”中,Rush用AM模型来做生成式摘要给出的一个AM的一个非常直观的样例。

图6 句子生成式摘要样例

这个样例中,Encoder-Decoder框架的输入句子是:“russian defense minister ivanov called sunday for the creation of a joint front for combating global terrorism”。

相应图中纵坐标的句子。系统生成的摘要句子是:“russia calls for joint front against terrorism”。相应图中横坐标的句子。

能够看出模型已经把句子主体部分正确地抽出来了。矩阵中每一列代表生成的目标单词相应输入句子每一个单词的AM分配概率,颜色越深代表分配到的概率越大。这个样例对于直观理解AM是非常有帮助作用的。

最后是广告:关于AM,我们除了本文,下周还会有续集:从AM来谈谈两种科研创新模式,请不要转台,继续关注,谢谢。

扫一扫关注微信号:“布洛卡区” ,深度学习在自然语言处理等智能应用的技术研讨与科普公众号。

自然语言处理中的Attention Model:是什么及为什么的更多相关文章

  1. (zhuan) 自然语言处理中的Attention Model:是什么及为什么

    自然语言处理中的Attention Model:是什么及为什么 2017-07-13 张俊林 待字闺中 要是关注深度学习在自然语言处理方面的研究进展,我相信你一定听说过Attention Model( ...

  2. [转]自然语言处理中的Attention Model:是什么及为什么

    自然语言处理中的Attention Model:是什么及为什么 https://blog.csdn.net/malefactor/article/details/50550211 /* 版权声明:可以 ...

  3. 深度学习方法(九):自然语言处理中的Attention Model注意力模型

    欢迎转载,转载请注明:本文出自Bin的专栏blog.csdn.NET/xbinworld. 技术交流QQ群:433250724,欢迎对算法.技术感兴趣的同学加入. 上一篇博文深度学习方法(八):Enc ...

  4. (转载)自然语言处理中的Attention Model:是什么及为什么

    转载说明来源:http://blog.csdn.net/malefactor/article/details/50550211 author: 张俊林 原文写得非常好! 原文: 要是关注深度学习在自然 ...

  5. 深度学习之Attention Model(注意力模型)

    1.Attention Model 概述 深度学习里的Attention model其实模拟的是人脑的注意力模型,举个例子来说,当我们观赏一幅画时,虽然我们可以看到整幅画的全貌,但是在我们深入仔细地观 ...

  6. 【NLP】Attention Model(注意力模型)学习总结

    最近一直在研究深度语义匹配算法,搭建了个模型,跑起来效果并不是很理想,在分析原因的过程中,发现注意力模型在解决这个问题上还是很有帮助的,所以花了两天研究了一下. 此文大部分参考深度学习中的注意力机制( ...

  7. (转)注意力机制(Attention Mechanism)在自然语言处理中的应用

    注意力机制(Attention Mechanism)在自然语言处理中的应用 本文转自:http://www.cnblogs.com/robert-dlut/p/5952032.html  近年来,深度 ...

  8. 注意力机制(Attention Mechanism)在自然语言处理中的应用

    注意力机制(Attention Mechanism)在自然语言处理中的应用 近年来,深度学习的研究越来越深入,在各个领域也都获得了不少突破性的进展.基于注意力(attention)机制的神经网络成为了 ...

  9. 自然语言处理中的自注意力机制(Self-attention Mechanism)

    自然语言处理中的自注意力机制(Self-attention Mechanism) 近年来,注意力(Attention)机制被广泛应用到基于深度学习的自然语言处理(NLP)各个任务中,之前我对早期注意力 ...

随机推荐

  1. 2057. [ZLXOI2015]殉国

    ★☆   输入文件:BlackHawk.in   输出文件:BlackHawk.out   评测插件 时间限制:0.05 s   内存限制:256 MB [题目描述] 正义的萌军瞄准了位于南极洲的心灵 ...

  2. 树莓派连接arduino(USB串口通讯)

    2018-06-0115:12:19 https://blog.csdn.net/song527730241/article/details/50884890 重要步骤  查看端口:(ttyUSB0或 ...

  3. python 关于一个懒惰和非懒惰的

    >>> pa = re.compile(r'<.*>') >>> result = pa.findall('<H1>title</H1 ...

  4. 主库binlog(master-log)与从库relay-log的关系

    主库binlog: # at # :: server id end_log_pos CRC32 COMMIT/*!*/; # at # :: server id end_log_pos CRC32 e ...

  5. C语言入门100题,考算法的居多

    入门题,考算法的居多,共同学习! 1. 编程,统计在所输入的50个实数中有多少个正数.多少个负数.多少个零. 2. 编程,计算并输出方程X2+Y2=1989的所有整数解. 3. 编程,输入一个10进制 ...

  6. vt100控制符

    vt100控制符是比较古老的字符,基本上的终端都能支持 今天突然来了兴致玩一玩儿 颜色配置 下面是我写的各种背景和字体颜色的搭配演示,挑选一种你喜欢的 echo -en "[背景\字体] & ...

  7. nginx做反向代理配置文件的例子

    worker_processes ; error_log logs/error.log; #error_log logs/error.log notice; #error_log logs/error ...

  8. NAT、NAPT(PAT)的基本概念和工作原理及区别

    转自:http://blog.sina.com.cn/s/blog_5d302bd20100gprv.html 近年来,随着 Internet 的迅猛发展,连入 Internet 的主机数量成倍增长. ...

  9. mybatis传参总结

    注:文章引用部分 mybatis传递参数总结文章内容 一.单个参数 1.基本数据类型 (1)直接使用 List<ChargeRuleDO> tests(long id); <sele ...

  10. javaScript--进阶1--数据类型、操作符

    一.JS基础知识背景 1.1 弱类型脚本语言 脚本语言是:弥补编译语言的不足而存在的,作为补充语言,不用编译,解析一行执行一行. 弱类型语言:简单理解定义一个变量,可以有多种数据类型.(var tem ...