1. 需求

使用skip-gram模式实现word2vect,然后在jaychou_lyrics.txt数据集上应用

jaychou_lyrics.txt数据集收录了周杰伦从第一张专辑到第十张专辑<跨时代>中的歌词,比如:

  • 想要有直升机

    想要和你飞到宇宙去

    想要和你融化在一起

    融化在宇宙里

    我每天每天每天在想想想想著你

    这样的甜蜜

    让我开始乡相信命运

    感谢地心引力

    让我碰到你

    漂亮的让我面红的可爱女人

    温柔的让我心疼的可爱女人

    透明的让我感动的可爱女人

    坏坏的让我疯狂的可爱女人

2. 词向量介绍

2.1 传统方法的局限性

  我们知道,分词后的数据是不能直接拿到模型里去训练的,我们需要把词语转换成词向量才能进行模型的训练,这样一个词可以有一个多维的词向量组成。

  传统的方法是one-hot encoding,即用一个长向量来表示一个词,向量的长度为词典的大小,向量的分量只有一个1,其余全为0,1的位置即对应改词在词典中的位置,如电脑表示为:[0 0 0 0 0 1 0 0 0 0 ],耳机表示为[0 0 0 0 0 0 0 1 0 ]这种方式如果采用稀疏存储,表达简洁,占用空间少,但是这种方法也有几个缺点,一是容易受维数灾难的困扰,尤其是将其用于 Deep Learning的一些算法时;二是不能很好地刻画词与词之间的相似性,即任意两个词之间都是孤立的。光从这两个向量中看不出两个词是否有关系,损失大部分信息,导致结果会有较大偏差。

2.2 Word2Vec方法的优势

  在1968年Hinton又提出了Distributed REpresentation,可以解决One-hot encoding的缺点。其基本想法是直接用一个普通的向量表示一个词,这种向量一般长成这个样子:[0.792, −0.177, −0.107, 0.109, −0.542, ...],也就是普通的向量表示形式。维度以 50 维和 100 维比较常见。当然一个词怎么表示成这么样的一个向量需要通过训练得到,训练方法较多,word2vec是最常见的一种。需要注意的是,每个词在不同的语料库和不同的训练方法下,得到的词向量可能是不一样的。词向量一般维数不高,一般情况下指定100、500维就可以了,所以用起来维数灾难的机会现对于one-hot representation表示就大大减少了。

  由于是用向量表示,而且用较好的训练算法得到的词向量的向量一般是有空间上的意义的,也就是说,将所有这些向量放在一起形成一个词向量空间,而每一向量则为该空间中的一个点,在这个空间上的词向量之间的距离度量也可以表示对应的两个词之间的“距离”。所谓两个词之间的“距离”,就是这两个词之间的语法,语义之间的相似性。

  一个比较爽的应用方法是,得到词向量后,假如对于某个词A,想找出这个词最相似的词,在建立好词向量后的情况,对计算机来说,只要拿这个词的词向量跟其他词的词向量一一计算欧式距离或者cos距离,得到距离最小的那个词,就是它最相似的。

注:这里偷了个懒,以上内容摘抄自博客园博主Charlotte77,记得大佬曾对词向量有过一段描述,写的非常清楚,于是找来copy了下,在这里感谢博主的分享

下面再简单介绍下word2vect的两种模型,skip-gram模型和cbow模型

2.3 CBOW模型

CBOW模型包含三层:输入层、映射层、输出层,其架构如下图:

  w(t)为输入词,在已知词w(t)的前提下预测w(t)的上下文w(t-2)、w(t-1)、w(t+1)、w(t+2),条件概率为:\(p(w|context(w))\)。目标函数为:

\[\sum logp(w|context(w))
\]

  CBOW模型训练其实就是根据某个词前后若干个词来预测该词,这其实可以看出是多分类,最朴素的想法就是直接使用softmax来分别计算每个词对应的归一化的概率,但对于动辄十几万词汇量的场景中使用softmax计算量太大,于是需要用一种二分类组合形式的hierarchical softmax,即输出一颗二叉树

2.4 Skip-Gram模型

  Skip-Gram模型包含三层:输入层、映射层、输出层,其架构如下图:

w(t)为输入词,在已知词w(t)的前提下预测w(t)的上下文w(t-2)、w(t-1)、w(t+1)、w(t+2),条件概率为:\(p(context(w)|w)\)。目标函数为:

\[\sum logp(context(w)|w)
\]

Skip-Gram的基本思想是通过已知词的前提下预测其上下文的词,通过一个例子来说明,假设有个句子:

i love green eggs and ham

接下来,根据Skip-Gram算法基本思想,把这个语句生成由系列(输入,输出)构成的数据集,当上下文窗口大小为1时,love的上下文为[i,green],green的上下文为[love,eggs],依次类推。上面的数据集可以转换成:

datasets = [[love,i],[love,green],[green,love],[green,egges],...,[and,eggs],[and,ham]]

3. 实现思路

(1). 对数据集进行预处理,对数据集进行分词处理、提取特征词、建议词索引

(2). 二次采样,降低高频词概率

(3). 提取中心词和背景词

(4). 负采样

(5). 构建模型训练数据

(6). 定义和训练模型

4. 值得思考的关键点

(1). 中心词和背景词的提取方式

(2). 为什么要进行负采样,怎样进行负采样

(3). 当背景词和负样本词窗口大小不固定时,该如何对数据进行建模

(4). 明确损失函数的计算方式

这里就不作解答了,答案都在代码里面

5. 具体实现过程

import random
import math
import zipfile
import jieba
import collections
import time
import mxnet as mn
from mxnet import nd,autograd,initializer
from mxnet.gluon import data as gdata
from mxnet.gluon import nn,trainer
from mxnet.gluon import loss as gloss

5.1 读数据文集,获得数据集

# 读数据文集,获得数据集
def load_dataset(file):
dataset = []
with zipfile.ZipFile(file) as zf:
with zf.open(zf.namelist()[0]) as pf:
for line in pf.readlines():
line = line.decode('utf-8', 'ignore').strip()
dataset.append(line)
return dataset
datafile = '.\\datasets\\jaychou_lyrics.txt.zip'
dataset = load_dataset(datafile)
print(dataset[:3])
['想要有直升机', '想要和你飞到宇宙去', '想要和你融化在一起']

5.2 进行分词处理

def check_contain_chinese(check_str):
'''
判断邮件中的字符是否有中文
'''
for ch in check_str:
if u'\u4e00' <= ch <= u'\u9fff':
return True
return False
def proc_dataset_by_jieba(dataset):
sentences = []
for line in dataset:
sentence = []
seg_list = jieba.cut(line,cut_all= False)
for word in seg_list:
if not check_contain_chinese(word):
continue
sentence.append(word)
sentences.append(sentence)
return sentences
sentences_by_jieba = proc_dataset_by_jieba(dataset)
print('ori words len:',sum([len(sentence) for sentence in sentences_by_jieba]))
print(sentences_by_jieba[:10])
ori words len: 33825
[['想要', '有', '直升机'], ['想要', '和', '你', '飞到', '宇宙', '去'], ['想要', '和', '你', '融化', '在', '一起'], ['融化', '在', '宇宙', '里'], ['我', '每天', '每天', '每天', '在', '想想', '想想', '著', '你'], ['这样', '的', '甜蜜'], ['让', '我', '开始', '乡', '相信', '命运'], ['感谢', '地心引力'], ['让', '我', '碰到', '你'], ['漂亮', '的', '让', '我', '面红', '的', '可爱', '女人']]

5.3 建立词索引

counter = collections.Counter([word for sentence in sentences_by_jieba for word in sentence])
cabulary_numbers_dict = dict(filter(lambda x:x[1] >= 5, counter.items())) # {词:词出现的次数} index_to_word = [word for word,_ in cabulary_numbers_dict.items()] # 根据索引查找词
word_to_index = {word:index for index,word in enumerate(index_to_word)} # 根据词得到索引 # 将原始数据集转换为索引
sentences_to_index = []
for sentence in sentences_by_jieba:
sentence_to_index = []
for word in sentence:
if word in index_to_word:
sentence_to_index.append(word_to_index[word])
sentences_to_index.append(sentence_to_index) print('sentences_to_index len:',len(sentences_to_index))
print('words len:',sum([len(sentence_index) for sentence_index in sentences_to_index]))
sentences_to_index len: 5819
words len: 25429

5.4 二次抽样

二次抽样:文本数据中一般会出现一些高频词,通常来说,在一个背景窗口,一个词和较低频词同时出现比和较高频词同时出现对训练词嵌入更有益,因此,训练词嵌入模型时可以对词进行二次采样,具体来说,数据集中每个被索引词\(w_i\)将有一定的概率被丢弃,该丢弃的概率为$$P(w_i) = max(1- \sqrt{\frac{t}{f(w_i)}},0)$$

其中\(f(w_i)\)是数据集中词\(w_i\)的个数与总次数的比,常数t是一个超参数,实验中设为\(10^{-4}\),可见当\(f(w_i) > t\)时,才有可能在二次采样中丢弃该词\(w_i\),并且越高频的词被丢弃的概率越大

def throw_word(index):
temp = 1- math.sqrt(1e-4 / cabulary_numbers_dict[index_to_word[index]] * len(dataset_to_index))
return random.uniform(0,1) < temp subsampled_sentences_index = [[word_index for word_index in sentence_index if not throw_word(word_index)]
for sentence_index in sentences_to_index]
print('subsampled_words len:',sum([len(sentence_index) for sentence_index in subsampled_sentences_index]))
subsampled_words len: 7187

经过二次抽样后,我们发现从原始词汇数33825--->25429---->7187

5.5 提取中心词和背景词

注意:下面在提取背景词时采用的是非固定窗长

def get_centers_and_contexts(sentences,max_window_size):
centers,contexts= [], []
for sentence in sentences:
if len(sentence) < 2: # 每个句子至少要有两个词才能组成一对'中心词-背景词'
continue
centers += sentence
for center_index in range(len(sentence)):
window_size = random.randint(1,max_window_size)
indexs = list(range(max(0,center_index- window_size),min(len(sentence),center_index + window_size + 1)))
indexs.remove(center_index) # 将中心词排除在背景词之外
contexts.append([sentence[index] for index in indexs])
return centers,contexts
all_centers,all_contexts = get_centers_and_contexts(subsampled_sentences_index,2)
print('中心词个数:',len(all_centers))
print('中心词对应的上下文列表数:',len(all_contexts))
中心词个数: 5110
中心词对应的上下文列表数: 5110

5.6 负采样

使用负采样来进行近似训练,对于一对中心词和背景词,我们随机采样K个噪音词,根据word2vect论文的建议,噪音词采样概率\(P(w)\)设为w词频与总词频之比的0.75次方

def get_negatives(all_contexts, sampling_weights,k):
all_negatives = []
neg_candidates = []
population = list(range(len(sampling_weights))) i = 0
for contexts in all_contexts:
negatives = []
while(len(negatives) < len(contexts) * k):
if i == len(neg_candidates):
neg_candidates = random.choices(population, sampling_weights, k=int(1e5))
i = 0
neg = neg_candidates[i]
i = i + 1
if neg not in set(contexts):
negatives.append(neg)
all_negatives.append(negatives)
return all_negatives
sampling_weights = [cabulary_numbers_dict[word]**0.75 for word in index_to_word]
all_negatives = get_negatives(all_contexts,sampling_weights,5)
print('中心词对应的负样本列表数:',len(all_negatives))
中心词对应的负样本列表数: 5110

5.7 构造数据集

前面我们已经得到了中心词列表、与中心词对应的上下文列表和与中心词对应的负样本列表,接下来构建数据集,即模型训练数据

数据集格式:

def build_batch_data(data):
'''
data数据由三部分组成:center,context,negative
'''
maxlen = max(len(context) + len(negative) for _,context,negative in data)
centers = []
context_negatives = []
masks = []
labels = [] for center,context,negative in data:
curlen = len(context) + len(negative)
centers.append(center)
context_negatives.append(context + negative + [0]*(maxlen - curlen))
masks.append([1]*curlen + [0]*(maxlen - curlen))
labels.append([1]*len(context) + [0]*(maxlen-len(context))) return (nd.array(centers).reshape((-1,1)),
nd.array(context_negatives),
nd.array(masks),
nd.array(labels))
batch_size = 512
dataset = gdata.ArrayDataset(all_centers,all_contexts,all_negatives)
data_iter = gdata.DataLoader(dataset, batch_size, shuffle=True, batchify_fn=build_batch_data)
for batch in data_iter:
for name,data in zip(['centers','context_negatives','masks','labels'],batch):
print(name,'shape:',data.shape)
break
centers shape: (512, 1)
context_negatives shape: (512, 24)
masks shape: (512, 24)
labels shape: (512, 24)

5.8 定义和训练模型

def skip_gram(center,context_and_negative, embed_c,embed_cn):
c = embed_c(center)
cn = embed_cn(context_and_negative)
return nd.batch_dot(c,cn.swapaxes(1,2))
embed_size = 100         # 嵌入层大小
net = nn.Sequential()
net.add(nn.Embedding(input_dim = len(index_to_word), output_dim=embed_size), # 中心词嵌入层
nn.Embedding(input_dim = len(index_to_word), output_dim=embed_size)) # 背景词和负样本嵌入层
loss = gloss.SigmoidBinaryCrossEntropyLoss()
def train(net,learnint_rate,epochs,ctx=mn.gpu()):
net.initialize(init=initializer.Xavier(),ctx=ctx,force_reinit=True)
trainer_op = trainer.Trainer(net.collect_params(),'adam', {'learning_rate':learnint_rate}) for epoch in range(epochs):
start,loss_sum,n = time.time(),0.0, 0
for batch in data_iter:
center,context_negative, mask, label = [data.as_in_context(ctx) for data in batch]
with autograd.record():
pred = skip_gram(center,context_negative,net[0],net[1])
loss_val = (loss(pred.reshape(label.shape),label,mask) * mask.shape[1] / mask.sum(axis=1))
loss_val.backward()
trainer_op.step(batch_size)
loss_sum += loss_val.sum().asscalar()
n += loss_val.size
print('epoch:%d,loss:%.2f,time %.2f' %(epoch+1, loss_sum / n,time.time() - start))
train(net,0.01,20)
epoch:1,loss:0.69,time 0.33
epoch:2,loss:0.64,time 0.27
epoch:3,loss:0.52,time 0.25
epoch:4,loss:0.38,time 0.23
epoch:5,loss:0.30,time 0.22
epoch:6,loss:0.23,time 0.22
epoch:7,loss:0.17,time 0.23
epoch:8,loss:0.12,time 0.22
epoch:9,loss:0.09,time 0.22
epoch:10,loss:0.07,time 0.23
epoch:11,loss:0.06,time 0.22
epoch:12,loss:0.05,time 0.23
epoch:13,loss:0.04,time 0.23
epoch:14,loss:0.04,time 0.22
epoch:15,loss:0.03,time 0.22
epoch:16,loss:0.03,time 0.22
epoch:17,loss:0.03,time 0.22
epoch:18,loss:0.03,time 0.22
epoch:19,loss:0.03,time 0.22
epoch:20,loss:0.02,time 0.27

5.9 词向量可视化

from sklearn.manifold import TSNE
import matplotlib.pyplot as plt
num_points = 200 # TSNE提供了一种有效的降维方式,让我们对高于2维数据的聚类结果以二维的方式展示出来
tsne = TSNE(perplexity=30,n_components=2,init='pca',n_iter=5000) embeddings = net[0].weight.data().asnumpy()
two_d_embeddings = tsne.fit_transform(embeddings[0:num_points,:])
import matplotlib

#解决中文显示乱码的问题
matplotlib.rcParams['font.sans-serif'] = ['SimHei']
matplotlib.rcParams['axes.unicode_minus'] = False def plot(embeddings,labels):
plt.figure(figsize=(16,20))
for i,label in enumerate(labels):
x,y = embeddings[i,:]
plt.scatter(x,y)
plt.annotate(label,(x,y),xytext=(5,2),textcoords='offset points',ha='right',va='bottom')
plt.show()
words = [index_to_word[i] for i in range(num_points)]
plot(two_d_embeddings,words)

从上图,你能唱出几句周董的歌?,代码和数据集均已上传到github

使用Mxnet基于skip-gram模型实现word2vect的更多相关文章

  1. 【tornado】系列项目(二)基于领域驱动模型的区域后台管理+前端easyui实现

    本项目是一个系列项目,最终的目的是开发出一个类似京东商城的网站.本文主要介绍后台管理中的区域管理,以及前端基于easyui插件的使用.本次增删改查因数据量少,因此采用模态对话框方式进行,关于数据量大采 ...

  2. 【tornado】系列项目(一)之基于领域驱动模型架构设计的京东用户管理后台

    本博文将一步步揭秘京东等大型网站的领域驱动模型,致力于让读者完全掌握这种网络架构中的“高富帅”. 一.预备知识: 1.接口: python中并没有类似java等其它语言中的接口类型,但是python中 ...

  3. DL4NLP——词表示模型(二)基于神经网络的模型:NPLM;word2vec(CBOW/Skip-gram)

    本文简述了以下内容: 神经概率语言模型NPLM,训练语言模型并同时得到词表示 word2vec:CBOW / Skip-gram,直接以得到词表示为目标的模型 (一)原始CBOW(Continuous ...

  4. ChatGirl 一个基于 TensorFlow Seq2Seq 模型的聊天机器人[中文文档]

    ChatGirl 一个基于 TensorFlow Seq2Seq 模型的聊天机器人[中文文档] 简介 简单地说就是该有的都有了,但是总体跑起来效果还不好. 还在开发中,它工作的效果还不好.但是你可以直 ...

  5. TensorFlow-Bitcoin-Robot:一个基于 TensorFlow LSTM 模型的 Bitcoin 价格预测机器人

    简介 TensorFlow-Bitcoin-Robot:一个基于 TensorFlow LSTM 模型的 Bitcoin 价格预测机器人. 文章包括一下几个部分: 1.为什么要尝试做这个项目? 2.为 ...

  6. 基于 Agent 的模型入门:Python 实现隔离仿真

    2005 年诺贝尔经济学奖得主托马斯·谢林(Thomas Schelling)在上世纪 70 年代就纽约的人种居住分布得出了著名的 Schelling segregation model,这是一个 A ...

  7. 推荐系统| ② 离线推荐&基于隐语义模型的协同过滤推荐

    一.离线推荐服务 离线推荐服务是综合用户所有的历史数据,利用设定的离线统计算法和离线推荐算法周期性的进行结果统计与保存,计算的结果在一定时间周期内是固定不变的,变更的频率取决于算法调度的频率. 离线推 ...

  8. TensorFlow-Bitcoin-Robot:一个基于 TensorFlow LSTM 模型的 Bitcoin 价格预测机器人。

    简介 TensorFlow-Bitcoin-Robot:一个基于 TensorFlow LSTM 模型的 Bitcoin 价格预测机器人. 文章包括一下几个部分: 1.为什么要尝试做这个项目? 2.为 ...

  9. 推荐系统实践 0x09 基于图的模型

    用户行为数据的二分图表示 用户的购买行为很容易可以用二分图(二部图)来表示.并且利用图的算法进行推荐.基于邻域的模型也可以成为基于图的模型,因为基于邻域的模型都是基于图的模型的简单情况.我们可以用二元 ...

随机推荐

  1. 基于mipsel编译Qt4.6.2版本(有具体参数和编译时遇到的问题)

    1.使用的configure配置为:./configure -embedded mips -little-endian -xplatform qws/linux-mips-g++ -prefix /o ...

  2. C++字符串的操作(简单全面)

    void *memccpy (void *dest, const void *src, int c, size_t n); 从src所指向的对象复制n个字符到dest所指向的对象中.如果复制过程中遇到 ...

  3. Js 动态插入css js文件

    function loadjscssfile(filename,filetype){ var file, //动态插入的文件 doc = document; if(filetype == " ...

  4. 孟岩:技术路线的选择重要但不具有决定性(什么是核心竞争力?是你独特的个性知识经验组合,正确的态度应该是着重于你要干的事情,然后认真把这件事情做好,然后融会贯通)good

    转自 http://blog.csdn.net/myan/article/details/3247071   孟岩 2008 年的文章,现在看来还是挺有启发, 送给大家,也送给自己. 最近微软在技术上 ...

  5. DirectUI的消息流转

    Windows是一个基于消息循环的系统,DirectUI同样遵循这样的消息流转.当界面呈现.用户点击.定时器等各种各样的消息一旦进入windows消息循环队列,系统自动调用该窗口的WndProc过程. ...

  6. vue-cli脚手架 ,过滤器,生命周期钩子函数

    一.安装vue-cli脚手架 1.淘宝镜像下载 用淘宝的国内服务器来向国外的服务器请求,我们向淘宝请求,而不是由我们直接向国外的服务器请求,会大大提升请求速度,使用时,将所有的npm命令换成cnpm即 ...

  7. 请你讲一讲JavaScript有哪些数据类型, 数据类型判断有哪些方法?

    js的8种数据类型 JavaScript中有8种数据类型, 包括基本数据类型(number, string, boolean, null, undefined, symbol, bigint)和引用数 ...

  8. Kafka笔记7

    Kafka提供了一些命令行工具,用于管理集群变更.这些工具使用Java实现,Kafka提供了一些脚本调用这些Java类. 9.1主题操作 使用Kafka-topics.sh工具可以执行主题大部分工作, ...

  9. linux上java和golang环境变量的设置

    JAVA环境变量   (1).打开~/.bashrc完成环境配置( 作用类似于/etc/bashrc, 只是针对用户自己而言,不对其他用户生效.)       文件追加            expo ...

  10. 办公利器-一行代码搞定http服务

    平时给内网的同事分享个文件,直接用python启动一个http服务,方便又简洁: python3: python -m http.server [port] 默认端口为8000 python2: py ...