注:这是2017年课程的lecture8。一直都在用RNN,但是对它内部的构造不甚了解,所以这次花了一个下午加一个晚上看了CS224n中关于RNN的推导,不敢说融会贯通,算是比以前清楚多了。做个笔记,便于日后查阅。

Overview

主要讲了以下几个内容:

  1. 传统语言模型

  2. RNN和RNN语言模型

  3. 一些问题(梯度消失爆炸问题)和训练技巧

  4. RNN的其他应用

  5. 双向RNN和多层RNN

传统语言模型

语言模型

首先介绍语言模型的概念,简言之,语言模型描述了一个单词序列的概率,原文是a language model computes a probability for a sentence of words. 这样的好处是可以描述单词顺序以及更好的单词选择。关于单词顺序,课上举的例子是\(P(the cat is small) > P(small is the cat)\),即正确语序在语言模型下的概率更高;关于单词选择,例子是\(P(walking home after school) > P(walking house after school)\)。也就是说概率越高,越像人话。

传统语言模型

  1. 定义:

传统的语言模型计算的概率大多基于“窗口”大小,也就是\(n-gram\)中的\(n\)的大小。一个自然的理解是当前词的概率也应该和之前所有词的选择有关,即:

\[P({w_t} = {v_j}) = P({w_t} = {v_j}|{w_1},{w_2},...,{w_{t - 1}})\]

但是问题是这种计算不可行,随着语料的增大,当\(t\)足够大的时候,计算这个概率是很难的事情。因此,我们做出一个在数学上来看不正确,但是在实际计算中很有必要的Markov假设,即当前词的概率仅与之前的\(n\)个词有关,即:

\[P({w_t} = {v_j}) = P({w_t} = {v_j}|{w_{t - n}},{w_{t - (n - 1)}},...,{w_{t - 1}})\]

  1. 计算:

计算多使用词频或者词组的频率计算,下面的公式展示了\(unigram\)和\(bi-gram\)的计算公式:

unigram:\[P({w_2}|{w_1}) = \frac{{count({w_1},{w_2})}}{{count({w_1})}}\]

bigram: \[P({w_3}|{w_1},{w_2}) = \frac{{count({w_1},{w_2},{w_3})}}{{count({w_1},{w_2})}}\]

其中,\(count\)表示对应数组在整个语料中的出现次数。根据公式可以看到,计算\[{{count({w_1},{w_2},{w_3})}}\]的复杂程度与词汇表大小有关,具体是n-gram的复杂程度是\({\left| V \right|^n}\),其中\(\left| V \right|\)表示词汇表的大小。所以我们会发现这种方法对内存空间的要求很大,模型的表现越好,所需要的内存就越大。

RNN和RNN语言模型

RNN的优点:

  1. 根据时间序列进行预测,具体方法是共享权值矩阵。

  2. 理论上可以考虑之前所有的单词

  3. 内存需求低于传统语言模型

RNN的基本公式:

\[{h_t} = \sigma ({W^{hh}}{h_{t - 1}} + {W^{hx}}{x_t}),{W^{hh}} \in {D_h} \times {D_h},{W^{hx}} \in {D_h} \times d\]

\[{\hat y_t} = softmax({W^S}{h_t}),{W^S} \in \left| V \right| \times {D_h}\]

\[\hat P({x_{t + 1}} = {v_j}|{x_1},{x_2},...,{x_t}) = {\hat y_{t,j}}\]

其中,\(D_h\)是隐藏层的维度,\(d\)是词向量的维度,\(\left| V \right|\)是词汇表的大小

训练问题与技巧

目标函数

目标函数采用交叉熵函数:

\(t\)时刻:\[{J^{(t)}}(\theta ) = - \sum\limits_{j = 1}^{\left| V \right|} {{y_{t,j}}\log {{\hat y}_{t,j}}} \]

全部:\[J = - \frac{1}{T}\sum\limits_{t = 1}^T {\sum\limits_{j = 1}^{\left| V \right|} {{y_{t,j}}\log {{\hat y}_{t,j}}} } \]

评价指标

困惑度(perplexity, PPL),PPL的计算公式如下:

\[PPL = {2^J}\]

所以,PPL越小越好。

梯度消失与爆炸问题

首先给出结论,基本的RNN存在长距依赖问题,即训练时间足够长时,会出现梯度的突变,使得训练失去意义。我们从公式推导的角度说明这个问题。

  1. 首先,我们考虑一个简化的RNN,或许不叫RNN,只是在传统的RNN上做了一些修改,不会影响具体的性质:

\[{h_t} = Wf({h_{t - 1}}) + {W^{hx}}{x_t}\]

\[{\hat y_t} = {W^S}g({h_t})\]

  1. 总误差可以表示为每个时间步误差的和:

\[\frac{{\partial J}}{{\partial W}} = \sum\limits_{t = 1}^T {\frac{{\partial {J_t}}}{{\partial W}}} \]

  1. 在反向传播过程中:

我们依次进行分析,首先是\(W^S\),它的梯度是比较容易得到的,即:

\[chain rules: \frac{{\partial {J_t}}}{{\partial {W^S}}} = \frac{{\partial {J_t}}}{{\partial {{\hat y}_t}}}\frac{{\partial {{\hat y}_t}}}{{\partial {W^S}}}\]

比较麻烦的是\(W\)和\(W^hx\)的梯度,但是这两个梯度很类似,求出一个另一个也类似可得,现在以\(W\)为例,我们先观察这三个式子:

\[{h_t} = Wf({h_{t - 1}}) + {W^{hx}}{x_t}\]

\[{\hat y_t} = {W^S}g({h_t})\]

\(t\)时刻:\[{J^{(t)}}(\theta ) = - \sum\limits_{j = 1}^{\left| V \right|} {{y_{t,j}}\log {{\hat y}_{t,j}}} \]

想要求\(t\)时刻\(W\)的梯度,应用链式法则有:

\[\frac{{\partial {J_t}}}{{\partial W}} = \frac{{\partial {J_t}}}{{\partial {{\hat y}_t}}}\frac{{\partial {{\hat y}_t}}}{{\partial {h_t}}}\frac{{\partial {h_t}}}{{\partial W}}\]

其中,\(\frac{{\partial {J_t}}}{{\partial {{\hat y}_t}}}\frac{{\partial {{\hat y}_t}}}{{\partial {h_t}}}\)是比较好求的,不好处理的只有\(\frac{{\partial {h_t}}}{{\partial W}}\),因为\({h_{t-1}}\)中也有\(W\)项,应该使用连式法则求解,即:

\[\frac{{\partial {J_t}}}{{\partial W}} = \sum\limits_{k = 1}^t {\frac{{\partial {J_t}}}{{\partial {{\hat y}_t}}}\frac{{\partial {{\hat y}_t}}}{{\partial {h_t}}}\frac{{\partial {h_t}}}{{\partial {h_k}}}\frac{{\partial {h_k}}}{{\partial W}}} \]

我们再来看上式中的\({\frac{{\partial {h_t}}}{{\partial {h_k}}}}\),由链式法则有以下的式子成立:

\[\frac{{\partial {h_t}}}{{\partial {h_k}}} = \prod\limits_{j = k + 1}^t {\frac{{\partial {h_j}}}{{\partial {h_{j - 1}}}}} \]

其中\(h_j\)与\({h_{j-1}}\)的关系可以写成\({h_j} = F({h_{j-1}})\),所以这个式子可以写成一个雅克比矩阵:

\[\frac{{\partial {h_j}}}{{\partial {h_{j - 1}}}} = \begin{array}{*{20}{c}}
{\frac{{\partial {F_1}}}{{\partial {h_{j - 1,1}}}}}&{\frac{{\partial {F_1}}}{{\partial {h_{j - 1,2}}}}}&{\frac{{\partial {F_1}}}{{\partial {h_{j - 1,3}}}}}&{...}&{\frac{{\partial {F_1}}}{{\partial {h_{j - 1,{D_h}}}}}}\\
{\frac{{\partial {F_2}}}{{\partial {h_{j - 1,1}}}}}&{\frac{{\partial {F_2}}}{{\partial {h_{j - 1,2}}}}}&{\frac{{\partial {F_2}}}{{\partial {h_{j - 1,3}}}}}&{...}&{\frac{{\partial {F_2}}}{{\partial {h_{j - 1,{D_h}}}}}}\\
{...}&{...}&{...}&{...}&{...}\\
{...}&{...}&{...}&{...}&{...}\\
{\frac{{\partial {F_{{D_h}}}}}{{\partial {h_{j - 1,1}}}}}&{\frac{{\partial {F_{{D_h}}}}}{{\partial {h_{j - 1,2}}}}}&{\frac{{\partial {F_{{D_h}}}}}{{\partial {h_{j - 1,3}}}}}&{...}&{\frac{{\partial {F_{{D_h}}}}}{{\partial {h_{j - 1,{D_h}}}}}}
\end{array}\]

即对这个偏导数求范数,其中\({\beta _W}\)和\({\beta _h}\)分别是\(\left\| {{W^T}} \right\|\)和\(\left\| {diag({f^{(1)}}({h_{j - 1}}))} \right\|\)的上界:

\[\left\| {\frac{{\partial {h_j}}}{{\partial {h_{j - 1}}}}} \right\| \le \left\| {{W^T}} \right\|\left\| {diag({f^{(1)}}({h_{j - 1}}))} \right\| \le {\beta _W}{\beta _h}\]

\[\left\| {\frac{{\partial {h_t}}}{{\partial {h_{k}}}}} \right\| = \left\| \prod\limits_{j = k + 1}^t {\frac{{\partial {h_j}}}{{\partial {h_{j - 1}}}}} \right\| \le ({\beta _W}{\beta _h})^{(t-k)}\]

所以,当\(0 < {\beta _W}{\beta _h} < 1\),在足够长的时间后会产生梯度消失,否则产生梯度爆炸。

双向RNN和多层RNN

今天太困了,以后再补吧,鸽了QAQ

【CS224n】Lecture8 Notes的更多相关文章

  1. 【原创】记一次Project插件开发

    一.开发背景 最近在使用微软的Office Project 2010 进行项目管理,看到排的满满的计划任务,一个个地被执行完毕,还是很有成就感的.其实,不光是在工作中可以使用Project进行项目进度 ...

  2. 【故障处理】ORA-28040: No matching authentication protocol

    [故障处理]ORA-28040: No matching authentication protocol 1.1  BLOG文档结构图 1.2  前言部分 1.2.1  导读和注意事项 各位技术爱好者 ...

  3. 机器学习(Machine Learning)&深度学习(Deep Learning)资料【转】

    转自:机器学习(Machine Learning)&深度学习(Deep Learning)资料 <Brief History of Machine Learning> 介绍:这是一 ...

  4. SCI&EI 英文PAPER投稿经验【转】

    英文投稿的一点经验[转载] From: http://chl033.woku.com/article/2893317.html 1. 首先一定要注意杂志的发表范围, 超出范围的千万别投,要不就是浪费时 ...

  5. 程序员提高工作效率的15个技巧【Facebook】

    程序员提高工作效率的15个技巧[Facebook] 作者: habadog 日期: 2015 年 02 月 13 日发表评论 (0)查看评论 程序员提高工作效率的15个技巧[Facebook] 1,D ...

  6. 【POJ1743】 Musical Theme (二分+后缀数组)

    Musical Theme Description A musical melody is represented as a sequence of N (1<=N<=20000)note ...

  7. 【POJ2396】Budget(上下界网络流)

    Description We are supposed to make a budget proposal for this multi-site competition. The budget pr ...

  8. 【转】KVM/Installation

    [转]KVM/Installation Installation Pre-installation checklist Check that your CPU supports hardware vi ...

  9. 【原创】leetCodeOj --- Dungeon Game 解题报告

    原题地址: https://oj.leetcode.com/problems/dungeon-game/ 题目内容: The demons had captured the princess (P) ...

随机推荐

  1. base64的使用

    import base64with open("test.jpg", "rb") as f: file = f.read()file_base64 = base ...

  2. Java开发环境之MySql

    查看更多Java开发环境配置,请点击<Java开发环境配置大全> 叁章:MySql安装教程 1)去官网下载MySql安装包 https://www.mysql.com/downloads/ ...

  3. 【Calling Circles UVA - 247 】【Floyd + dfs】

    用到的东西 Floyd算法(不考虑路径的长度,只关心两点之间是否有通路,可用于求有向图的传递闭包) STL map中的count用法 利用dfs输出同一个圈内的名字 题意 题目中给出 n 的人的名字, ...

  4. LeetCode初级算法--其他02:有效的括号

    LeetCode初级算法--其他02:有效的括号 搜索微信公众号:'AI-ming3526'或者'计算机视觉这件小事' 获取更多算法.机器学习干货 csdn:https://blog.csdn.net ...

  5. 《老子》是帝王术,提倡复古,崇拜圣人,主张愚民,甘居下流,不争上游:4星|李零《人往低处走:<老子>天下第一》

    ​​“ 俗话说,“人往高处走,水往低处流”.<老子>正好相反,它强调的是作“天下谷”.“天下溪”.“天下之牝”,甘居下流,不争上游(第28和第61章).司马谈说,道家的特点是“去健羡,绌聪 ...

  6. Charles 4.2.1 HTTPS抓包

    Charles 4.2.1 HTTPS抓包 Charles iPhone抓包 Mac必须与iPhone连接同一WiFi Proxy -> SSL Proxying Settings ->  ...

  7. selenium与webdriver驱动与firefox、 chrome匹配版本

    一.Chrome python3 selenium3.11.0(直接pip安装即可) chromedriver_win32:2.38 Chrome版本: 65.0.3325.146(正式版本)(32 ...

  8. app开发-3

    一.Audio 模块实现开启手机摄像头 基于html5 plus http://www.html5plus.org/doc/zh_cn/audio.html 栗子:   自定义: scanQR.HTM ...

  9. Alpha冲刺(8/10)——2019.5.1

    所属课程 软件工程1916|W(福州大学) 作业要求 Alpha冲刺(8/10)--2019.5.1 团队名称 待就业六人组 1.团队信息 团队名称:待就业六人组 团队描述:同舟共济扬帆起,乘风破浪万 ...

  10. JS关闭当前窗口

    function logOut() { $('#logging-out').on('click', function () { stopPreventDefault(); $.messager.con ...