TensorFlow NMT的词嵌入(Word Embeddings)
本文转载自:http://blog.stupidme.me/2018/08/05/tensorflow-nmt-word-embeddings/,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有。
声明:本文由 罗周杨 stupidme.me.lzy@gmail.com 原创,未经授权不得转载
自然语言处理的第一步,就是要将文本表示成计算机能理解的方式。我们将长文本分词之后,得到一个词典,对于词典中的每一个词,我们用一个或者一组数字来表示它们。这样就实现了我们的目标。
Embedding(词嵌入)到底是什么
首先, Embedding 即 词嵌入 ,它的作用是什么呢?很简单, 将文本信息转化成数字 。因为计算机无法直接处理文字,所以我需要 将文字转化成数字 这一个技术。
文字转化成数字不是很简单吗?最简单的,对于每一个词,我们都给一个整数进行表示,这样不就可以了吗?更进一步,对于每一个词,我们都给定一个定长的向量,让某一个位置(可以是前面的整数表示),使这个位置的值为1,其余位置为0。也就是说,假设我们有1000个词,那么我们对于每一个词,都写成一个1000个元素的列向量,每个向量里,只有一个位置的值是1,其余位置都是0,比如:
- hello –> [1,0,0,0,…,0]
- world –> [0,1,0,0,…,0]
实际上,上面这种编码就是 one-hot 编码,翻译过来就是 独热编码 。
但是我们的Embedding并不是这样做的,为什么呢?
主要原因就是上述 one-hot 编码有以下几个严重的缺点:
- 维度爆炸,如果我有30万个词,那么每一个词就需要[1,300000]的向量表示。词越多,维度越高
- 无法表示词语之间的关系。
也就是说,我们的 Embedding 需要解决以上问题,那么怎么办呢?也很简单:
- 对于每一个词,我们使用一个固定长度的向量来表示,比如长度为256
- 对于每一个的表示,不是使用非0即1这种表示,我们使用浮点数,向量的每一个值都可以是一个浮点数
这样以来,上述两个问题也就解决了。
实际上,你肯定发现了一个问题,我们这写词语的数字表示组成的矩阵,所有的值都是可以变化的,那么这个变化到底该怎么变呢?这是一个很关键的问题!
答案是: 我们这个矩阵,实际上就是一个浅层的神经网络,模型训练过程中,会自动更新这些值!
等模型训练好了,我们的词语数字矩阵的值也就确定下来了。那么,如果我们把这个矩阵的值,保存下来,下次不让模型训练了,直接加载,这样可以吗?
答案是: 当然可以! 。
这样做还可以减少训练参数的个数,从而减少训练时间呢!
实际上,tensorflow/nmt项目有一个参数 --embed_file
指的就是这个所谓的矩阵的值保存的文件!
这就是 Embedding 所有的秘密,一点都不玄乎对不对?
NMT项目中Embedding的构建过程
TensorFlow NMT的词嵌入代码入口位于 nmt/model.py 文件, BaseModel 有一个 init_embeddings()
方法,NMT模型就是在此处完成词嵌入的初始化的。
根据上面的介绍,我们知道,有两种方式构建Embedding:
- 从已经训练好的文件(embed_file)直接加载
- 构建一个矩阵,让模型自己训练
接下来,分别介绍一下这两种方式在 tensorflow/nmt
项目中的构建过程。
从超参数获取需要的参数
需要做词嵌入,则首先要获取需要的信息。比如词典文件,或者说词嵌入文件(如果已经有训练好的词嵌入文件的话)。这些信息,都是通过超参数hparams这个参数传递过来的。主要的参数获取如下:
def _init_embeddings(self, hparams, scope):
# 源数据和目标数据是否使用相同的词典
share_vocab = hparams.share_vocab
src_vocab_size = self.src_vocab_size
tgt_vocab_size = self.tgt_vocab_size
# 源数据词嵌入的维度,数值上等于指定的神经单元数量
src_embed_size = hparams.num_units
# 目标数据词嵌入的维度,数值上等于指定的神经单元数量
tgt_embed_size = hparams.num_units
# 词嵌入分块数量,分布式训练的时候,需要该值大于1
num_partitions = hparams.num_embeddings_partitions
# 源数据的词典文件
src_vocab_file = hparams.src_vocab_file
# 目标数据的词典文件
tgt_vocab_file = hparams.tgt_vocab_file
# 源数据已经训练好的词嵌入文件
src_embed_file = hparams.src_embed_file
# 目标数据已经训练好的词嵌入文件
tgt_embed_file = hparams.tgt_embed_file
# 分块器,用于分布式训练
if num_partitions <= 1:
# 小于等于1,则不需要分块,不使用分布式训练
partitioner = None
else:
# 分块器也是一个张量,其值大小和分块数量一样
partitioner = tf.fixed_size_partitioner(num_partitions)
# 如果使用分布式训练,则不能使用已经训练好的词嵌入文件
if (src_embed_file or tgt_embed_file) and partitioner:
raise ValueError(
"Can't set num_partitions > 1 when using pretrained embedding")
参数的意义我已经写在注释里面了。
获取到这些参数之后,我们就可以创建或者加载词嵌入的矩阵表示了。
创建或者加载词嵌入矩阵
根据超参数,如果提供了 预训练 的词嵌入文件,则我们只需要根据词典,将词典中的词的嵌入表示,从词嵌入文件取出来即可。如果没有提供预训练的词嵌入文件,则我们自己创建一个即可。
# 创建词嵌入的变量域
with tf.variable_scope(scope or "embeddings", dtype=tf.float32, partitioner=partitioner) as scope:
# 如果共享词典
if share_vocab:
# 检查词典大小是否匹配
if src_vocab_size != tgt_vocab_size:
raise ValueError("Share embedding but different src/tgt vocab sizes"
" %d vs. %d" % (src_vocab_size, tgt_vocab_size))
assert src_embed_size == tgt_embed_size
vocab_file = src_vocab_file or tgt_vocab_file
embed_file = src_embed_file or tgt_embed_file
# 如果有训练好的词嵌入模型,则直接加载,否则创建新的
embedding_encoder = self._create_or_load_embed(
"embedding_share", vocab_file, embed_file,
src_vocab_size, src_embed_size, dtype=tf.float32)
embedding_decoder = embedding_encoder
# 不共享词典的话,需要根据不同的词典创建对应的编码器和解码器
else:
# 加载或者创建编码器
with tf.variable_scope("encoder", partitioner=partitioner):
embedding_encoder = self._create_or_load_embed(
"embedding_encoder", src_vocab_file, src_embed_file,
src_vocab_size, src_embed_size, tf.float32)
# 加载或创建解码器
with tf.variable_scope("decoder", partitioner=partitioner):
embedding_decoder = self._create_or_load_embed(
"embedding_decoder", tgt_vocab_file, tgt_embed_file,
tgt_vocab_size, tgt_embed_size, tf.float32)
self.embedding_encoder = embedding_encoder
self.embedding_decoder = embedding_decoder
如你所见,在获取词嵌入表示之前,有一个share_vocab的判断。这个判断也很简单,就是判断源数据和目标数据是否使用相同的词典,不管是不是share_vocab,最后都需要创建或者加载词嵌入表示。这个关键的过程在 _create_or_load_embed()
函数中完成。
该函数的主要工作如下:
def _create_or_load_embed(self, embed_name, vocab_file, embed_file, vocab_size, embed_size, dtype=tf.float32):
# 如果提供了训练好的词嵌入文件,则直接加载
if vocab_file and embed_file:
embedding = self._create_pretrained_emb_from_txt(vocab_file, embed_file)
else:
# 否则创建新的词嵌入
with tf.device(self._get_embed_device(vocab_size)):
embedding = tf.get_variable(
embed_name, [vocab_size, embed_size], dtype)
return embedding
加载预训练的词嵌入表示
如果超参数提供了embed_file这个预训练好的词嵌入文件,那么我么只需要读取该文件,创建出词嵌入矩阵,返回即可。
主要代码如下:
def _create_pretrained_emb_from_txt(self, vocab_file, embed_file,
num_trainable_tokens=3, dtype=tf.float32, scope=None):
"""
从文件加载词嵌入矩阵
:param vocab_file: 词典文件
:param embed_file: 训练好的词嵌入文件
:param num_trainable_tokens:词典文件前3个词标记为变量,默认为"<unk>","<s>","</s>"
:param scope: 域
:return: 词嵌入矩阵
"""
# 加载词典
vocab, _ = vocab_utils.load_vocab(vocab_file)
# 词典的前三行会加上三个特殊标记,取出三个特殊标记
trainable_tokens = vocab[:num_trainable_tokens]
utils.print_out("# Using pretrained embedding: %s." % embed_file)
utils.print_out(" with trainable tokens: ")
# 加载训练好的词嵌入
emb_dict, emb_size = vocab_utils.load_embed_txt(embed_file)
for token in trainable_tokens:
utils.print_out(" %s" % token)
# 如果三个标记不在训练好的词嵌入中
if token not in emb_dict:
# 初始化三个标记为0.0,维度为词嵌入的维度
emb_dict[token] = [0.0] * emb_size
# 从训练好的词嵌入矩阵中,取出词典中的词语的词嵌入表示,数据类型为tf.float32
emb_mat = np.array(
[emb_dict[token] for token in vocab], dtype=dtype.as_numpy_dtype())
# 常量化词嵌入矩阵
emb_mat = tf.constant(emb_mat)
# 从词嵌入矩阵的第4行之后的所有行和列(因为num_trainable_tokens=3)
# 也就是说取出除了3个标记之外所有的词嵌入表示
# 这是常量,因为已经训练好了,不需要训练了
emb_mat_const = tf.slice(emb_mat, [num_trainable_tokens, 0], [-1, -1])
with tf.variable_scope(scope or "pretrain_embeddings", dtype=dtype) as scope:
with tf.device(self._get_embed_device(num_trainable_tokens)):
# 获取3个标记的词嵌入表示,这3个标记的词嵌入是可以变的,通过训练可以学习
emb_mat_var = tf.get_variable(
"emb_mat_var", [num_trainable_tokens, emb_size])
# 将3个标记的词嵌入和其余单词的词嵌入合并起来,得到完整的单词词嵌入表示
return tf.concat([emb_mat_var, emb_mat_const], 0)
处理过程,我已经在注释里面写得很清楚了。接下来看看新创建词嵌入表示的过程。
重新创建词嵌入表示
这个过程其实很简单,就是创建一个可训练的张量而已:
with tf.device(self._get_embed_device(vocab_size)):
embedding = tf.get_variable(embed_name, [vocab_size, embed_size], dtype)
该张量的名字就是 embed_name
,shape即[vocab_size, embed_size],其中 vocab_size
就是词典的大小,也就是二维矩阵的行数, embed_size
就是词嵌入的维度,每个词用多少个数字来表示,也就是二维矩阵的列数。该张量的数据类型是单精度浮点数。当然, tf.get_variable()
方法还有很多提供默认值的参数,其中一个就是 trainable=True
,这代表这个变量是可变的,也就是我们的词嵌入表示在训练过程中,数字是会改变的。
这样就完成了词嵌入的准备过程。
TensorFlow NMT的词嵌入(Word Embeddings)的更多相关文章
- 词向量 词嵌入 word embedding
词嵌入 word embedding embedding 嵌入 embedding: 嵌入, 在数学上表示一个映射f:x->y, 是将x所在的空间映射到y所在空间上去,并且在x空间中每一个x有y ...
- [DeeplearningAI笔记]序列模型2.1-2.2词嵌入word embedding
5.2自然语言处理 觉得有用的话,欢迎一起讨论相互学习~Follow Me 2.1词汇表征 Word representation 原先都是使用词汇表来表示词汇,并且使用1-hot编码的方式来表示词汇 ...
- NLP:单词嵌入Word Embeddings
深度学习.自然语言处理和表征方法 原文链接:http://blog.jobbole.com/77709/ 一个感知器网络(perceptron network).感知器 (perceptron)是非常 ...
- Coursera Deep Learning笔记 序列模型(二)NLP & Word Embeddings(自然语言处理与词嵌入)
参考 1. Word Representation 之前介绍用词汇表表示单词,使用one-hot 向量表示词,缺点:它使每个词孤立起来,使得算法对相关词的泛化能力不强. 从上图可以看出相似的单词分布距 ...
- 词向量表示:word2vec与词嵌入
在NLP任务中,训练数据一般是一句话(中文或英文),输入序列数据的每一步是一个字母.我们需要对数据进行的预处理是:先对这些字母使用独热编码再把它输入到RNN中,如字母a表示为(1, 0, 0, 0, ...
- DeepLearning.ai学习笔记(五)序列模型 -- week2 自然语言处理与词嵌入
一.词汇表征 首先回顾一下之前介绍的单词表示方法,即one hot表示法. 如下图示,"Man"这个单词可以用 \(O_{5391}\) 表示,其中O表示One_hot.其他单词同 ...
- 吴恩达《深度学习》-课后测验-第五门课 序列模型(Sequence Models)-Week 2: Natural Language Processing and Word Embeddings (第二周测验:自然语言处理与词嵌入)
Week 2 Quiz: Natural Language Processing and Word Embeddings (第二周测验:自然语言处理与词嵌入) 1.Suppose you learn ...
- 吴恩达《深度学习》-第五门课 序列模型(Sequence Models)-第二周 自然语言处理与词嵌入(Natural Language Processing and Word Embeddings)-课程笔记
第二周 自然语言处理与词嵌入(Natural Language Processing and Word Embeddings) 2.1 词汇表征(Word Representation) 词汇表示,目 ...
- 词嵌入向量WordEmbedding
词嵌入向量WordEmbedding的原理和生成方法 WordEmbedding 词嵌入向量(WordEmbedding)是NLP里面一个重要的概念,我们可以利用WordEmbedding将一个单 ...
随机推荐
- 37 树莓派识别opencv-dnn
https://heartbeat.fritz.ai/real-time-object-detection-on-raspberry-pi-using-opencv-dnn-98827255fa60 ...
- contest1 CF70 BetaRound ooxxx ooxxx ooooo
CDE set之类不要直接用lower_bound, 要用set.lower_bound()
- 洛谷 P1807 最长路_NOI导刊2010提高(07)题解
相当与一个拓扑排序的模板题吧 蒟蒻的辛酸史 题目大意:给你一个有向无环图,让你求出1到n的最长路,如果没有路径,就输出-1 思路:一开始以为是一个很裸的拓扑排序 就不看题目,直接打了一遍拓扑排序 然后 ...
- Set和Multiset 怎么用咧↓↓↓
转自:[C++ STL]Set和Multiset - Memset - 博客园https://www.cnblogs.com/ChinaHook/p/6985444.html (对字体进行了略微的修改 ...
- 【cf比赛记录】Codeforces Round #604 (Div. 2)
比赛传送门 感觉这场是最近以来做过的最顺手的一场,持续上分,开心w A了 前三题,然后第四题其实还有半个多小时,但怕身体撑不住,就先退了,其实第四题也很简单 自己认为的算法标签: A.暴力模拟.字 ...
- pacemaker和keepalived的区别
1.pacemaker Pacemaker 是一款开源的高可用资源管理软件,适合大集群或者小集群. Pacemaker 由Novell支持,SLES HAE就是用Pacemaker来管理集群,并且Pa ...
- [Gamma] 发布说明
[Gamma] 发布说明 发布网址为http://60.205.230.0 新功能前瞻 团队合作:支持多人合作完成项目 项目进度管理:便于监控项目进度 站内信系统:团队合作与审核需要 已知BUG修复 ...
- 【操作系统之七】Linux常用命令之tail
一.概念linux tail命令用途是按照要求将指定的文件的最后部分输出到标准设备,一般是终端,就是把某个档案文件的最后几行显示到终端上,如果该档案有更新,tail会自动刷新,确保你看到最新的档案内容 ...
- Linux 就该这么学 CH09 使用ssh服务管理远程主机
1 .配置网络服务 1)配置网络参数 五种配置网络的方法:命令行,编译网络配置文件,nmtui(旧版ui界面),nm-connection-edit(新版ui),VM虚拟机右上角图标等. 这里配 ...
- Linux 就该这么学 CH07 使用RAID和LVM磁盘阵列技术
1 RAID (独立冗余磁盘阵列) RAID 技术通过把多个硬盘设备组合成一个容量更大.安全性更好的磁盘阵列,并把数据切割成多个区段之后分别存在各个不同的物理硬盘设备上,然后利用分散读写计数来提升磁盘 ...