Deep Learning(深度学习) 学习笔记(四)
神经概率语言模型,内容分为三块:问题,模型与准则,实验结果。[此节内容未完待续...]
1,语言模型问题
语言模型问题就是给定一个语言词典包括v个单词,对一个字串
做出二元推断,推断其是否符合该语言表达习惯。也就是
的取值为0或者为1。
概率语言模型放松了对取值的限制,让其在0~1之间取值(语言模型
v.s 概率语言模型),而且全部的字串的概率之和为1。维基百科对于概率语言模型的解释为:是借由一个概率分布,而指派概率给字词所组成的字串。可是须要注意的是直接对进行求其概率分布是不现实的,由于理论上这样的字串数量是无限的。直接求其概率分布会导致维度灾难。
为了解决这个问题,首先引入链式法则(chain rule),觉得字串中第i个字符出现的概率是由其前面i-1个字符决定的。这样就有例如以下公式:
可是,有了这个公式还是太复杂了。继续引入如果简化公式,觉得字串中第i个字符出现的概率是由其前面n-1个字符决定(也就是如果)的。这样公式就继续被简化:
模型如今就变得非常easy了,就是计算条件概率。也就是须要计算给定字串
后,字典中的每一个字出现的概率
。
2. 模型与准则
2.1 数据 给定一些标记号的样本.
2.2 模型
图1. 模型图解
图片来自:http://licstar.net/archives/328
建模步骤
2.2.1 查表:将输入的单词,通过查表(图1中Table
look-up过程)将单词映射为m维的词向量。此处的所查的表并非给定的,是在模型学习中获得的附加产物(也就是word2vec产生的那些向量玩意)。
2.2.2 线性变换:将2.2.1中的n-1个m维度的向量通过首尾拼接的方式线性变换成为(n-1)*m维的向量。也就是在中间那个tanh层输入处(以下)全部分向量C(w)合并为一个大的维度为(n-1)*m的向量[Mikolov的RNNLM在此做出改变:不只只看n-1个单词的信息,而是看该词前面全部的单词信息]。
2.2.3 非线性变换:在中间那个tanh层处进行非线性变换。这里须要的是一个变换矩阵和偏置矩阵
。也就是对于中间那一层(tanh所在的那一层),该层的输入是(n-1)*m的向量
,输出是
。经过线性变换后,先前的(n-1)*m维的向量成为了h维的向量。
2.2.4 输出处理:在最后一层(softmax层)进行处理输出。这里须要一个变换矩阵和一个偏置矩阵
。最后输出就是
。注意到最后输出的是一个v维度的向量,和我们的第一节中词典D的维度是一致的。向量中每个维度相应的实数就是输出该单词的概率。
2.3 准则
对全部的训练样本,其准则为使取最小,此处
为正则项。能够使用梯度下降法进行求取。
模型中须要人工设定的參数是模型的元数n,词向量的维度m,隐层的输出维度h。
须要模型优化的參数:变换矩阵W和H,偏置矩阵d和b,查表所使用的词向量表都是须要优化的參数,也就是我们所求取的參数。
3.实验结果
语言模型困惑度。模型困惑度是用来评价不同的语言模型好坏的一种方法(另一种方法是Word
Error Rate,Mikolov的博士论文《Statistical Language
Models based on Neural Networks》博士论文对这两种方法有介绍和比較)。给定測试数据集合,模型在该測试集合上的困惑度越小越好。
測试集合一:
Brown Corpus,共计118w单词,当中80w训练,20w验证,其它18w作为測试集合。
在n=5,m=30,h=100时候NNLM的PPL为270。该測试集合眼下最好的n-gram模型(n=3)的PPL为312。设置权重进行模型融合后的PPL为252。
測试集合二:
AP News,共计1600w词,当中1400w训练,100w验证,其它100w作为測试集合。
在n=6,m=100,h=109时候NNLM的PPL为109。该測试集合眼下最好的n-gram模型的PPL为117。
网上学习资料:
关于神经网络语言模型的博客:点击打开链接
Mikolov的博士论文《Statistical Language
Models based on Neural Networks》 关于n-gram语言模型的评价是简单有用(N-gram models are today still considered as state of the art not because there are no better techniques, but
because those better techniques are computationally much more complex, and provide just marginal improvements, not critical for success of given application.),模型的关键就是选择n值和平滑技术。其固有缺点例如以下:
第一,n-gram模型的n值无法取大。由于模型n-gram片段的数量会随着n值的变大指数增长。这一点就决定了n-gram模型无法有效的利用更长的上下文信息。特殊的,当被提供海量训练语料时,n-gram模型也无法有效捕捉一些长距离的语言现象。
第二,即使n值能够取得比較大,n-gram无法有利用长距离的上下文信息。比如,有一个句子The sky above our heads is bleu. 这句话里面单词 bleu对单词sky有着非常强的依赖关系,无论这两个单词中间插入多少变量都不会破坏这样的关系。比如The
sky this morning was bleu. 可是对n-gram模型,即使放开n值的限制,取一个较大的n值,也无法有效地捕捉这样的长距离的语言现象。
第三,n-gram模型无法高效的对相似的词语进行辨别。比如:训练语料中存在Party will be on Monday. 和Party will be on Tuesday. 模型无法对类似Party
will be on Friday.的句子赋予较高的概率。尽管我们人可以清楚知道“Monday”,"Tuesday","Friday"这些是类似的概念,可是只对字面进行建模的n-gram无法辨别。
Deep Learning(深度学习) 学习笔记(四)的更多相关文章
- Deep learning with Python 学习笔记(1)
深度学习基础 Python 的 Keras 库来学习手写数字分类,将手写数字的灰度图像(28 像素 ×28 像素)划分到 10 个类别 中(0~9) 神经网络的核心组件是层(layer),它是一种数据 ...
- Deep learning with Python 学习笔记(11)
总结 机器学习(machine learning)是人工智能的一个特殊子领域,其目标是仅靠观察训练数据来自动开发程序[即模型(model)].将数据转换为程序的这个过程叫作学习(learning) 深 ...
- Deep learning with Python 学习笔记(10)
生成式深度学习 机器学习模型能够对图像.音乐和故事的统计潜在空间(latent space)进行学习,然后从这个空间中采样(sample),创造出与模型在训练数据中所见到的艺术作品具有相似特征的新作品 ...
- Deep learning with Python 学习笔记(9)
神经网络模型的优化 使用 Keras 回调函数 使用 model.fit()或 model.fit_generator() 在一个大型数据集上启动数十轮的训练,有点类似于扔一架纸飞机,一开始给它一点推 ...
- Deep learning with Python 学习笔记(8)
Keras 函数式编程 利用 Keras 函数式 API,你可以构建类图(graph-like)模型.在不同的输入之间共享某一层,并且还可以像使用 Python 函数一样使用 Keras 模型.Ker ...
- Deep learning with Python 学习笔记(5)
本节讲深度学习用于文本和序列 用于处理序列的两种基本的深度学习算法分别是循环神经网络(recurrent neural network)和一维卷积神经网络(1D convnet) 与其他所有神经网络一 ...
- Deep learning with Python 学习笔记(4)
本节讲卷积神经网络的可视化 三种方法 可视化卷积神经网络的中间输出(中间激活) 有助于理解卷积神经网络连续的层如何对输入进行变换,也有助于初步了解卷积神经网络每个过滤器的含义 可视化卷积神经网络的过滤 ...
- Deep learning with Python 学习笔记(3)
本节介绍基于Keras的使用预训练模型方法 想要将深度学习应用于小型图像数据集,一种常用且非常高效的方法是使用预训练网络.预训练网络(pretrained network)是一个保存好的网络,之前已在 ...
- Deep learning with Python 学习笔记(2)
本节介绍基于Keras的CNN 卷积神经网络接收形状为 (image_height, image_width, image_channels)的输入张量(不包括批量维度),宽度和高度两个维度的尺寸通常 ...
- (转) 基于Theano的深度学习(Deep Learning)框架Keras学习随笔-01-FAQ
特别棒的一篇文章,仍不住转一下,留着以后需要时阅读 基于Theano的深度学习(Deep Learning)框架Keras学习随笔-01-FAQ
随机推荐
- Netty IO线程模型学习总结
Netty框架的 主要线程是IO线程.线程模型的好坏直接决定了系统的吞吐量.并发性和安全性. Netty的线程模型遵循了Reactor的基础线程模型.以下我们先一起看下该模型 Reactor线程模型 ...
- semaphore实现浏览器的读写原理
在编程范式中的斯坦福大学的老师说了一个例子:好比世界上就只有一台互联网的服务器,当我们浏览网页的时候,就好比服务器进行了写操作,而浏览器则进行了读操作. 我如果用简单的伪代码c++写出来是这个样子的: ...
- new对象数组时的内存布局
#include <iostream> #include <limits> using namespace std; #define SAFE_DELETE(x) \ { \ ...
- 1.1.5-学习Opencv与MFC混合编程之---画图工具 输入文字和填充图像 修改光标
源代码:http://download.csdn.net/detail/nuptboyzhb/3961696 输入文字 l 对话框 1. 插入,资源,选择对话框资源 2. 编辑对话框如下: ...
- NGUI: Documentation
Video Tutorials Basic Tutorial (v.2.5.0+) SD & HD atlas switching (advanced) Packed Font (advanc ...
- 【Bootstrap3.0建站笔记二】button可下拉弹出层
1.button可下拉弹出层: watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvY2hpbmFwbGFu/font/5a6L5L2T/fontsize/400 ...
- 【Cocos2d-X开发学习笔记】第28期:游戏中音乐和音效的使用
本系列学习教程使用的是cocos2d-x-2.1.4(最新版为3.0alpha0-pre) ,PC开发环境Windows7,C++开发环境VS2010 UI在游戏中占有很重要的地位,但吸引玩家的除了这 ...
- 怎样写Makefile文件(C语言部分)
本文摘抄自"跟我一起写Makefile ",只是原文中我自己感觉比较精要的一部分,并且只针对C语言,使用GCC编译器. 原文请看这里:http://wiki.ubuntu.org. ...
- 基于Hadoop2.0、YARN技术的大数据高阶应用实战(Hadoop2.0\YARN\Ma
Hadoop的前景 随着云计算.大数据迅速发展,亟需用hadoop解决大数据量高并发访问的瓶颈.谷歌.淘宝.百度.京东等底层都应用hadoop.越来越多的企 业急需引入hadoop技术人才.由于掌握H ...
- Xamarin.forms 自定义dropdownview控件
一 基本说明 想用xamarin做个像美团这样的下拉列表进行条件选择的功能,但是但是找了半天好像没有现成的,也没有其他类似的控件可以走走捷径,再则也没有找到popwindow之类的东东,这里只好使用s ...