斯坦福NLP课程 | 第18讲 - 句法分析与树形递归神经网络
- 作者:韩信子@ShowMeAI,路遥@ShowMeAI,奇异果@ShowMeAI
- 教程地址:http://www.showmeai.tech/tutorials/36
- 本文地址:http://www.showmeai.tech/article-detail/256
- 声明:版权所有,转载请联系平台与作者并注明出处
- 收藏ShowMeAI查看更多精彩内容
ShowMeAI为斯坦福CS224n《自然语言处理与深度学习(Natural Language Processing with Deep Learning)》课程的全部课件,做了中文翻译和注释,并制作成了GIF动图!
本讲内容的深度总结教程可以在这里 查看。视频和课件等资料的获取方式见文末。
引言
授课计划
- Motivation: Compositionality and Recursion
- Structure prediction with simple Tree RNN: Parsing
- Backpropagation through Structure
- More complex TreeRNN units
- Other uses of tree-recursive neural nets
- Institute for Human-Centered Artificial Intelligence
1.CS语言谱
- 词袋模型和复杂形式的语言表达结构
1.1 语言的语义解释:不仅仅是词向量
- 我们怎样才能弄清楚更大的短语的含义?
The snowboarder
is leaping over a mogulA person on a snowboard
jumps into the air
The snowboarder
在语义上相当于A person on a snowboard
,但它们的字长不一样
人们通过较小元素的语义成分来解释较大文本单元的意义
- 实体,描述性术语,事实,论点,故事
- 人们之所以可以理解
A person on a snowboard
,是因为组合原则 (the principle of compositionality
)- 人们知道每个单词的意思,从而知道了
on a snowboard
的意思 - 知道组件的含义并将他们组合成为更大的组件
- 人们知道每个单词的意思,从而知道了
- 小的组件元素构建成完整图片场景
- 语言理解 - 和人工智能 - 需要能够通过了解较小的部分来理解更大的事物
- 我们拥有将较小的部分组合起来制作出更大东西的能力
1.2 语言是递归的吗?
- 认知上有点争议 (需要前往无限)
- 但是:递归对于描述语言是很自然的
[The person standing next to [the man from [the company that purchased [the firm that you used to work at]]]]
- 包含名词短语的名词短语,包含名词短语
- 它是语言结构的一个非常强大的先验
1.3 Penn Treebank tree
2.基于词向量空间模型的构建
the country of my birth
the place where I was born
- 我们怎样表示更长短语的意思呢?
- 通过将他们映射到相同的向量空间!
2.1 我们应该如何将短语映射到向量空间?
- 基于组合原则
- 使用单词的含义和组合他们的规则,得到一个句子的含义向量
- 同时学习解析树以及组合向量表示
2.2 Constituency Sentence Parsing
- 我们需要能够学习如何解析出正确的语法结构,并学习如何基于语法结构,来构建句子的向量表示
2.3 递归与循环神经网络
- 循环神经网络需要一个树结构
- 循环神经网络不能在没有前缀上下文的情况下学习理解短语,并且经常它得到的最终向量包含太多末尾单词的信息 (而忽略了前面的一些内容)
2.4 结构预测对的递归神经网络
- 如果我们自上而下的工作,那么我们在底层有单词向量,所以我们想要递归地计算更大成分的含义
- 输入:两个候选的子节点的表示
- 输出:
- 两个节点被合并后的语义表示
- 新节点的合理程度
2.5 递归神经网络定义
2.6 用递归网络分析句子
- 自左向右重复遍历,每次将得分最高的两者组合在一起
2.7 分析一个句子
2.8 Max-Margin Framework:细节
- 树的得分是通过每个节点的解析决策得分的总和来计算的
\]
- \(x\) 是句子,\(y\) 是解析树
- 类似于最大边距解析 (Taskar et al.2004) ,有一个监督学习的最大边际目标
\]
- 损失 \(\Delta\left(y, y_{i}\right)\) 惩罚所有不正确的决策
- 结构搜索 \(A(x)\) 是贪婪的 (每次加入最佳节点)
- 相反:使用 Beam search 搜索图
2.9 场景分析
- 和组合类似的准则
- 场景图像的含义也是较小区域的函数
- 它们如何组合成部分以形成更大的对象
- 以及对象如何相互作用
2.10 图像解析算法
- Same Recursive Neural Network as for natural language parsing! (Socher et al. ICML 2011)
2.11 多类分割
3.结构反向传播(BTS)
- Introduced by Goller & Küchler (1996)
- 和通用的反向传播的规则相同
\]
\]
递归和树结构导致的计算:
- ① 从所有节点 (像RNN一样) 求 \(W\) 的导数
- ② 在每个节点处拆分导数 (对于树)
- ③ 从父节点和节点本身添加 error message
3.1 结构反向传播:第1步
- 求所有节点的偏导
& \frac{\partial}{\partial W} f(W(f(W x))\\
=& f^{\prime}\left(W(f(W x))\left(\left(\frac{\partial}{\partial W} W\right) f(W x)+W \frac{\partial}{\partial W} f(W x)\right)\right.\\
=& f^{\prime}\left(W(f(W x))\left(f(W x)+W f^{\prime}(W x) x\right)\right.
\end{aligned}
\]
& \frac{\partial}{\partial W_{2}} f\left(W_{2}\left(f\left(W_{1} x\right)\right)+\frac{\partial}{\partial W_{1}} f\left(W_{2}\left(f\left(W_{1} x\right)\right)\right.\right.\\
=& f^{\prime}\left(W_{2}\left(f\left(W_{1} x\right)\right)\left(f\left(W_{1} x\right)\right)+f^{\prime}\left(W_{2}\left(f\left(W_{1} x\right)\right)\left(W_{2} f^{\prime}\left(W_{1} x\right) x\right)\right.\right.\\
=& f^{\prime}\left(W_{2}\left(f\left(W_{1} x\right)\right)\left(f\left(W_{1} x\right)+W_{2} f^{\prime}\left(W_{1} x\right) x\right)\right.\\
=& f^{\prime}\left(W(f(W x))\left(f(W x)+W f^{\prime}(W x) x\right)\right.
\end{aligned}
\]
3.2 结构反向传播:第2步
- 在每个节点处分开偏导
3.3 结构反向传播:第3步
- 叠加 error message
3.4 BTS Python 编程:前向传播
3.5 BTS Python 编程:反向传播
4.版本1:简单TreeRNN
- 使用单矩阵 TreeRNN 的结果
- 单个权重矩阵 TreeRNN 可以捕获一些现象但不适合更复杂的现象以及更高阶的构成或解析长句
- 输入词之间没有真正的交互
- 组合函数对于所有句法类别,标点符号等都是相同的
5.版本2: Syntactically-Untied RNN
- 符号的上下文无关的语法(Context Free Grammar CFG)主干是足以满足基本的句法结构
- 我们使用子元素的离散句法类别来选择组合矩阵
- 对于不同的语法环境,TreeRNN可以针对不同的组合矩阵做得更好
- 结果为我们提供了更好的语义
补充讲解
- 左边 RNN 是使用概率的上下文无关的语法解析,为句子生成可能的树结构
- 右边 SU-RNN 是语法解开的递归神经网络,此时每个节点和序列都有一个类别,我们可以使用对应不同类别的矩阵组合起来,例如将类别 B 和类别 C 的矩阵组合起来作为本次计算的权重矩阵,所以这个权重矩阵是更符合句子结构的
5.1 组合向量文法
- 问题:速度
- 集束搜索中的每个候选分数都需要一次矩阵向量乘法
- 解决方案:仅针对来自更简单,更快速模型(Probabilistic Context Free Grammar (PCFG))的树的子集计算得分
- 对概率低的候选进行剪枝以获得更快的速度
- 为每个集束候选提供子句的粗略语法类别
- 组合矢量语法= PCFG + TreeRNN
5.2 解析相关工作
- 产生的 CVG Parser 与以前扩展PCFG解析器的工作有关
- Klein and Manning (2003a):手工特征工程
- Petrov et al. (2006):分解和合并句法类别的学习算法
- 词汇化解析器(Collins, 2003; Charniak, 2000):用词汇项描述每个类别
- Hall and Klein (2012) 在一个因式解析器中结合了几个这样的注释方案
- CVGs 将这些想法从离散表示扩展到更丰富的连续表达
5.3 实验
5.4 #论文解读# SU-RNN / CVG
- Learns soft notion of head words
- 初始化:\(W^{(\cdot)}=0.5\left[I_{n \times n} I_{n \times n} 0_{n \times 1}\right]+\varepsilon\)
- 初始化为一对对角矩阵
- 学习的是一个短语中哪个子节点是重要的
5.5 结果向量表示的分析
- 所有数据均根据季节变化进行调整
- 所有数字都根据季节性波动进行调整
- 调整所有数字以消除通常的季节性模式
- night-Ridder不会评论这个提议
- Harsco declined to say what country placed the order
- Coastal wouldn’t disclose the terms
- Sales grew almost \(7\%\) to \(\$ \text{UNK}\) m. from \(\$ \text{UNK}\) m.
- Sales rose more than \(7\%\) to \(\$ 94.9\) m. from \(\$ 88.3\) m.
- Sales surged \(40 \%\) to \(\text{UNK}\) b. yen from \(\text{UNK}\) b.
6.版本3: Compositionality Through Recursive Matrix-Vector Spaces
- 之前:\(p=\tanh \left(W\left[\begin{array}{l}{c_{1}} \\ {c_{2}}\end{array}\right]+b\right)\)
- \(c_1\) 和 \(c_2\) 之间并没有相互影响
- 使组合函数更强大的一种方法是解开权重 \(W\)
- 但是,如果单词主要作为运算符,例如
very good
的very
是没有意义的,是用于增加good
的规模的运算符
- 提案:新的组合函数
- 问题是如何定义呢,因为不知道 \(c_1\) 和 \(c_2\) 哪个是 operator,比如 very good ,就应该讲 very 视为作用在 good 的矩阵上的向量
- 每个单词都拥有一个向量意义和一个矩阵意义
- 左侧计算得到合并后的向量意义
- 右侧计算得到合并后的矩阵意义
- 可以捕获运算符语义,即中一个单词修饰了另一个单词的含义
6.1 预测情绪分布
- 语言中非线性的好例子
6.2 语义关系的分类
- MV-RNN 可以学习到大的句法上下文传达语义关系吗?
- 为包括两项的最小成分构建单个组合语义
6.3 语义关系的分类
- 问题:参数量过大,且获得短语的矩阵意义的方式不够好
7.版本4: Recursive Neural Tensor Network
- 比 MV-RNN 更少的参数量
- 允许两个单词或短语向量乘法交互
7.1 词袋之上: 情感检测
- 一段文字的语调是积极的,消极的还是中性的?
- 某种程度上情绪分析是容易的
- 较长文档的检测精度~90%,但是
- 有了这样的演员阵容和题材,这部电影应该会更有趣,更具娱乐性。
7.2 斯坦福情感分析数据集
- 215,154 phrases labeled in 11,855 sentences
- 可以真的训练和测试组合
- http://nlp.stanford.edu:8080/sentiment/
7.3 好的数据集对所有模型都有提升帮助
- 负面情感的难样本仍然大多判断错误的
- 我们还需要一个更强大的模型!
7.4 版本4: Recursive Neural Tensor Network
- 思路:允许载体的加性和介导的乘法相互作用
- 在树中使用结果向量作为逻辑回归的分类器的输入
- 使用梯度下降联合训练所有权重
补充讲解
- 回到最初的使用向量表示单词的意义,但不是仅仅将两个表示单词含义的向量相互作用,左上图是在中间插入一个矩阵,以双线性的方式做注意力并得到了注意力得分。即令两个单词的向量相互作用并且只产生一个数字作为输出
- 如上中图所示,我们可以拥有三维矩阵,即多层的矩阵(二维),从而得到了两个得分
- 使用 softmax 做分类
7.5 递归神经张量网络/Recursive Neural Tensor Network
7.6 数据集上的实验效果
- RNTN 可以捕捉类似 \(X\) but \(Y\) 的结构
- RNTN accuracy of 72%, compared to MV-RNN (65%), biword NB (58%) and RNN (54%)
7.7 否定的样本结果
- 双重否定时,积极反应应该上升
- Demo: http://nlp.stanford.edu:8080/sentiment/
8.版本5: Improving Deep Learning Semantic Representations using a TreeLSTM
目标:
- 仍试图将句子的含义表示为 (高维,连续) 向量空间中的位置
- 一种准确处理语义构成和句子含义的方式
- 将广泛使用的链式结构 LSTM 推广到树结构
8.1 LSTM Units for Sequential Composition
- 门是 \([0,1]^{d}\) 的向量,用于逐元素乘积的软掩蔽元素
8.2 #论文解读# Tree-Structured Long Short-Term Memory Networks
8.3 Tree-structured LSTM
- 将连续LSTM推广到具有任何分支因子的树
8.4 结果
8.5 忘记门:选择性状态保护
- Stripes = forget gate activations; more white ⇒ more preserved
- 图中的条纹代表遗忘门激活,更多的白色占比表示更多的信息保留
9.#论文解读# QCD-Aware Recursive Neural Networks for Jet Physics
10.用于程序翻译的tree-to-tree神经网络
- 探索在编程语言之间使用树形结构编码和生成进行翻译
- 在生成中,将注意力集中在源树上
11.HAI 以人为中心的人工智能
- 人工智能有望改变经济和社会,改变我们沟通和工作的方式,重塑治理和政治,并挑战国际秩序
- HAI的使命是推进人工智能研究,教育,政策和实践,以改善人类状况
12.视频教程
可以点击 B站 查看视频的【双语字幕】版本
[video(video-vRY242XX-1652089935406)(type-bilibili)(url-https://player.bilibili.com/player.html?aid=376755412&page=18)(image-https://img-blog.csdnimg.cn/img_convert/98116a0401851ce17dfd2efa1bb6e58a.png)(title-【双语字幕+资料下载】斯坦福CS224n | 深度学习与自然语言处理(2019·全20讲))]
13.参考资料
- 本讲带学的在线阅翻页本
- 《斯坦福CS224n深度学习与自然语言处理》课程学习指南
- 《斯坦福CS224n深度学习与自然语言处理》课程大作业解析
- 【双语字幕视频】斯坦福CS224n | 深度学习与自然语言处理(2019·全20讲)
- Stanford官网 | CS224n: Natural Language Processing with Deep Learning
ShowMeAI系列教程推荐
- 大厂技术实现 | 推荐与广告计算解决方案
- 大厂技术实现 | 计算机视觉解决方案
- 大厂技术实现 | 自然语言处理行业解决方案
- 图解Python编程:从入门到精通系列教程
- 图解数据分析:从入门到精通系列教程
- 图解AI数学基础:从入门到精通系列教程
- 图解大数据技术:从入门到精通系列教程
- 图解机器学习算法:从入门到精通系列教程
- 机器学习实战:手把手教你玩转机器学习系列
- 深度学习教程 | 吴恩达专项课程 · 全套笔记解读
- 自然语言处理教程 | 斯坦福CS224n课程 · 课程带学与全套笔记解读
NLP系列教程文章
- NLP教程(1)- 词向量、SVD分解与Word2vec
- NLP教程(2)- GloVe及词向量的训练与评估
- NLP教程(3)- 神经网络与反向传播
- NLP教程(4)- 句法分析与依存解析
- NLP教程(5)- 语言模型、RNN、GRU与LSTM
- NLP教程(6)- 神经机器翻译、seq2seq与注意力机制
- NLP教程(7)- 问答系统
- NLP教程(8)- NLP中的卷积神经网络
- NLP教程(9)- 句法分析与树形递归神经网络
斯坦福 CS224n 课程带学详解
- 斯坦福NLP课程 | 第1讲 - NLP介绍与词向量初步
- 斯坦福NLP课程 | 第2讲 - 词向量进阶
- 斯坦福NLP课程 | 第3讲 - 神经网络知识回顾
- 斯坦福NLP课程 | 第4讲 - 神经网络反向传播与计算图
- 斯坦福NLP课程 | 第5讲 - 句法分析与依存解析
- 斯坦福NLP课程 | 第6讲 - 循环神经网络与语言模型
- 斯坦福NLP课程 | 第7讲 - 梯度消失问题与RNN变种
- 斯坦福NLP课程 | 第8讲 - 机器翻译、seq2seq与注意力机制
- 斯坦福NLP课程 | 第9讲 - cs224n课程大项目实用技巧与经验
- 斯坦福NLP课程 | 第10讲 - NLP中的问答系统
- 斯坦福NLP课程 | 第11讲 - NLP中的卷积神经网络
- 斯坦福NLP课程 | 第12讲 - 子词模型
- 斯坦福NLP课程 | 第13讲 - 基于上下文的表征与NLP预训练模型
- 斯坦福NLP课程 | 第14讲 - Transformers自注意力与生成模型
- 斯坦福NLP课程 | 第15讲 - NLP文本生成任务
- 斯坦福NLP课程 | 第16讲 - 指代消解问题与神经网络方法
- 斯坦福NLP课程 | 第17讲 - 多任务学习(以问答系统为例)
- 斯坦福NLP课程 | 第18讲 - 句法分析与树形递归神经网络
- 斯坦福NLP课程 | 第19讲 - AI安全偏见与公平
- 斯坦福NLP课程 | 第20讲 - NLP与深度学习的未来
斯坦福NLP课程 | 第18讲 - 句法分析与树形递归神经网络的更多相关文章
- 斯坦福NLP课程 | 第1讲 - NLP介绍与词向量初步
作者:韩信子@ShowMeAI,路遥@ShowMeAI,奇异果@ShowMeAI 教程地址:http://www.showmeai.tech/tutorials/36 本文地址:http://www. ...
- 斯坦福NLP课程 | 第2讲 - 词向量进阶
作者:韩信子@ShowMeAI,路遥@ShowMeAI,奇异果@ShowMeAI 教程地址:http://www.showmeai.tech/tutorials/36 本文地址:http://www. ...
- 斯坦福NLP课程 | 第11讲 - NLP中的卷积神经网络
作者:韩信子@ShowMeAI,路遥@ShowMeAI,奇异果@ShowMeAI 教程地址:http://www.showmeai.tech/tutorials/36 本文地址:http://www. ...
- 斯坦福NLP课程 | 第12讲 - NLP子词模型
作者:韩信子@ShowMeAI,路遥@ShowMeAI,奇异果@ShowMeAI 教程地址:http://www.showmeai.tech/tutorials/36 本文地址:http://www. ...
- 斯坦福NLP课程 | 第15讲 - NLP文本生成任务
作者:韩信子@ShowMeAI,路遥@ShowMeAI,奇异果@ShowMeAI 教程地址:http://www.showmeai.tech/tutorials/36 本文地址:http://www. ...
- (Stanford CS224d) Deep Learning and NLP课程笔记(一):Deep NLP
Stanford大学在2015年开设了一门Deep Learning for Natural Language Processing的课程,广受好评.并在2016年春季再次开课.我将开始这门课程的学习 ...
- 第18讲- UI常用组件之EditText
第18讲UI常用组件之EditText 三.文本输入框EditText EditTex类继承自TextView.EditText是接受用户输入信息的最重要控件.在html当中,相当于<input ...
- 关于Coursera上的斯坦福机器学习课程的编程作业提交问题
学习Coursera上的斯坦福机器学习课程的时候,需要向其服务器提交编程作业,我遇到如下问题: 'Submission failed: unexpected error: urlread: Peer ...
- 在NLP中深度学习模型何时需要树形结构?
在NLP中深度学习模型何时需要树形结构? 前段时间阅读了Jiwei Li等人[1]在EMNLP2015上发表的论文<When Are Tree Structures Necessary for ...
随机推荐
- APICloud Github 5大开源项目集合展示
APICloud自成立之初,一直秉承着开源一切的初心,为了给予广大开发者们更多的资源及内容.不知不觉,2年时间已过,APICloud的github上已经集合了APICloud模块.前端框架及文档.云A ...
- canvas绘图API详解
canvas绘图API详解 1.context的状态 矩阵变换属性 当前剪辑区域 context的其他状态属性: strokeStyle, fillStyle, globalAlpha, lineWi ...
- html5知识点补充—footer元素的使用
使用footer元素创建脚注 顾名思义,footer元素通常位于页面的底部.尽管footer通常位于某个区域或者页面的底部,但并非总是如此.footer元素旨在包含作者.网站所有者.版权数据.网站规章 ...
- tf.test.is_gpu_available() 返回结果为False解决办法
安装完gpu版本的tensorflow,导入正常,但是tf.test.is_gpu_available()一直返回False,解决办法: 1.打开NVIDIA控制面板,查看CUDA的驱动版本,如果版本 ...
- java继承时能包括静态的变量和方法吗?举例说明!
子类继承了超类定义的所有实例变量和方法包括静态的变量和方法(马克-to-win见下例),并且为它自己增添了独特的元素.子类只能有一个超类.Java不支持多超类的继承. 子类拥有超类的所有成员,但它不能 ...
- java中public和缺省这两个访问权限的根本区别?
为了区分开public和缺省的区别,我们要引进包(package)的概念.包就像咱们磁盘上的目录一样,马克-to-win.package a;就是定义说当前的目录为a.底下编的任何的类,都会出现在当前 ...
- swig模板引擎和ejs模板引擎
swig模板引擎的基本用法: 1. 变量 {{ name }} //name名前后必须要加空格,不加就会报错 2. 属性 {{ student.name }} 3. 模板继承 swig使用exten ...
- LC-141andLC-142
142. 环形链表 II 思路: 设链表共有 a+b 个节点,其中 链表头部到链表入口 有 a 个节点(不计链表入口节点), 链表环 有 b 个节点. 再设两指针分别走了 f,s 步,则有: f = ...
- 轻量化安装 TKEStack:让已有 K8s 集群拥有企业级容器云平台的能力
关于我们 更多关于云原生的案例和知识,可关注同名[腾讯云原生]公众号~ 福利: ①公众号后台回复[手册],可获得<腾讯云原生路线图手册>&<腾讯云原生最佳实践>~ ②公 ...
- Android 环境搭建记录
Android 环境搭建记录 官网 https://developer.android.com/ studio 下载地址 官方下载 jikexueyuanwiki 国内镜像 studio历史版本 安装 ...