环境: win7+python3.5

1. 下载wiki中文分词语料   使用迅雷下载会快不少,大小为1个多G

2. 安装opencc用于中文的简繁替换
   安装exe的版本
opencc-1.0.1-win64.7z

并解压放置到自定义的目录下

   也可安装 python版本的:
    pip install opencc-python
    安装时会报错:
  报错一: ImportError: No module named distribute_setup
   解决方法,到 http://www.minitw.com/download/distribute_setup.zip 下载ZIP,解压后将.py文件放置到 电脑的分盘:\你安裝Python的目录\Lib(例如:C:\Python35\Lib)
   报错二:chown() missing 1 required positional argument: 'numeric_owner'
   到distribute_setup.py中,找到self.chown(tarinfo, dirpath),改为chown(tarinfo, dirpath, ''); 
  报错三: import opencc时,报错 no module named 'version'
  将opencc的__init__.py 中的from version import __version__改为from .version import __version__
  
3. 将wiki的资料转为文本txt
    python process_wiki.py zhwiki-latest-pages-articles.xml.bz2 wiki.zh.text
    解压后得到925M的文件,由于wiki中的东西是会定期更新的,所以不同时间下载得到的大小不一样
   
    process_wiki.py 源码如下:
    注: 网上的版本大多是针对python2的,使用python3进行解压会在output.write(space.join(text) + "\n")这一句出现提示关于byte或str的错误,所以需要有如下修改:
  1. space = b' '#原来是space = ' '
  2. ...
  3. for text in wiki.get_texts():
    s=space.join(text)
    s=s.decode('utf8') + "\n"
    output.write(s)
  1. #!/usr/bin/env python
  2. # -*- coding: utf-8 -*-
  3. # 修改后的代码如下:
  4. import logging
  5. import os.path
  6. import sys
  7. from gensim.corpora importWikiCorpus
  8. if __name__ =='__main__':
  9. program = os.path.basename(sys.argv[0])
  10. logger = logging.getLogger(program)
  11. logging.basicConfig(format='%(asctime)s: %(levelname)s: %(message)s')
  12. logging.root.setLevel(level=logging.INFO)
  13. logger.info("running %s"%' '.join(sys.argv))
  14. # check and process input arguments
  15. if len(sys.argv)<3:
  16. print(globals()['__doc__']% locals())
  17. sys.exit(1)
  18. inp, outp = sys.argv[1:3]
  19. space = b' '
  20. i =0
  21. output = open(outp,'w',encoding='utf-8')
  22. wiki =WikiCorpus(inp, lemmatize=False, dictionary={})
  23. for text in wiki.get_texts():
  24. s=space.join(text)
  25. s=s.decode('utf8')+"\n"
  26. output.write(s)
  27. i = i +1
  28. if(i %10000==0):
  29. logger.info("Saved "+ str(i)+" articles")
  30. output.close()
  31. logger.info("Finished Saved "+ str(i)+" articles")
 
 4. 繁简转化
进入解压后的opencc的目录,打开dos窗口,输入
opencc -i wiki.zh.text -o wiki.zh.jian.text -c t2s.json
则会得到wiki.zh.jian.text,里面是简体的中文
 
此时,大家会比较好奇,里边装着的到底是什么东西~
由于解压后的txt有900多M大,用txt打开比较困难,所以我们采用python自带的IO进行读取
  1. import codecs,sys
  2. import opencc
  3. f=codecs.open('zh.wiki.txt','r',encoding="utf8")
  4. line=f.readline()
  5. print(line)
打印的结果如下,可以看出文档中包含多干行文字,每一行文字为一篇文章,每一个空格表示此处原为一个标点符号
 简体的打印结果如下:
5. 分词
 由第四步得到语料仅由标点隔开,还需将其分割成词
 此处使用结巴分词 pip install jieba 即可安装
 结巴的具体介绍见:https://github.com/fxsjy/jieba 
 由于编码的原因,此处使用了codecs
 
  1. import jieba
  2. import jieba.analyse
  3. import jieba.posseg as pseg
  4. import codecs,sys
  5. def cut_words(sentence):
  6. #print sentence
  7. return" ".join(jieba.cut(sentence)).encode('utf-8')
  8. f=codecs.open('zh.jian.wiki.txt','r',encoding="utf8")
  9. target = codecs.open("zh.jian.wiki.seg.txt",'w',encoding="utf8")
  10. print('open files')
  11. line_num=1
  12. line = f.readline()
  13. while line:
  14. print('---- processing ', line_num,' article----------------')
  15. line_seg =" ".join(jieba.cut(line))
  16. target.writelines(line_seg)
  17. line_num = line_num +1
  18. line = f.readline()
  19. f.close()
  20. target.close()
  21. exit()
  22. while line:
  23. curr =[]
  24. for oneline in line:
  25. #print(oneline)
  26. curr.append(oneline)
  27. after_cut = map(cut_words, curr)
  28. target.writelines(after_cut)
  29. print('saved ',line_num,' articles')
  30. exit()
  31. line = f.readline1()
  32. f.close()
  33. target.close()
分词后的文档长这个样子:
6. 训练word2vec模型
  1. python train_word2vec_model.py zh.jian.wiki.seg.txt wiki.zh.text.model wiki.zh.text.vector
train_word2vec_model.py源码如下:
  1. import logging
  2. import os.path
  3. import sys
  4. import multiprocessing
  5. from gensim.corpora importWikiCorpus
  6. from gensim.models importWord2Vec
  7. from gensim.models.word2vec importLineSentence
  8. if __name__ =='__main__':
  9. program = os.path.basename(sys.argv[0])
  10. logger = logging.getLogger(program)
  11. logging.basicConfig(format='%(asctime)s: %(levelname)s: %(message)s')
  12. logging.root.setLevel(level=logging.INFO)
  13. logger.info("running %s"%' '.join(sys.argv))
  14. # check and process input arguments
  15. if len(sys.argv)<4:
  16. print(globals()['__doc__']% locals())
  17. sys.exit(1)
  18. inp, outp1, outp2 = sys.argv[1:4]
  19. model =Word2Vec(LineSentence(inp), size=400, window=5, min_count=5, workers=multiprocessing.cpu_count())
  20. model.save(outp1)
  21. model.save_word2vec_format(outp2, binary=False)
训练时长,看个人的机子配置,我训了一天。。。(吐槽一下换不了的破机子)
最终得到
 
7. 测试训练好的模型
结果如下:
但是呀,这个语句改成这样:
得到的结果却是: 难道这个模型宫斗剧看多了,发现皇上和太后是一家人,低阶的后宫女人是一团,只有皇后是个另类?
剩下的,各位自己去调戏吧,应该乐趣不少~
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
    
 

wiki中文语料+word2vec (python3.5 windows win7)的更多相关文章

  1. wiki中文语料的word2vec模型构建

    一.利用wiki中文语料进行word2vec模型构建 1)数据获取 到wiki官网下载中文语料,下载完成后会得到命名为zhwiki-latest-pages-articles.xml.bz2的文件,里 ...

  2. word2vec词向量处理中文语料

    word2vec介绍 word2vec官网:https://code.google.com/p/word2vec/ word2vec是google的一个开源工具,能够根据输入的词的集合计算出词与词之间 ...

  3. 基于CBOW网络手动实现面向中文语料的word2vec

    最近在工作之余学习NLP相关的知识,对word2vec的原理进行了研究.在本篇文章中,尝试使用TensorFlow自行构建.训练出一个word2vec模型,以强化学习效果,加深理解. 一.背景知识: ...

  4. 利用RNN进行中文文本分类(数据集是复旦中文语料)

    利用TfidfVectorizer进行中文文本分类(数据集是复旦中文语料) 1.训练词向量 数据预处理参考利用TfidfVectorizer进行中文文本分类(数据集是复旦中文语料) ,现在我们有了分词 ...

  5. 基于tensorflow的文本分类总结(数据集是复旦中文语料)

    代码已上传到github:https://github.com/taishan1994/tensorflow-text-classification 往期精彩: 利用TfidfVectorizer进行 ...

  6. 利用CNN进行中文文本分类(数据集是复旦中文语料)

    利用TfidfVectorizer进行中文文本分类(数据集是复旦中文语料) 利用RNN进行中文文本分类(数据集是复旦中文语料) 上一节我们利用了RNN(GRU)对中文文本进行了分类,本节我们将继续使用 ...

  7. python3 在 windows 读取路径多了一个\u202a 是咋回

    python3 在 windows 读取路径多了一个\u202a 是咋回事

  8. Python中文语料批量预处理手记

    手记实用系列文章: 1 结巴分词和自然语言处理HanLP处理手记 2 Python中文语料批量预处理手记 3 自然语言处理手记 4 Python中调用自然语言处理工具HanLP手记 5 Python中 ...

  9. windows Win7如何设置多用户同时远程登录

    windows  Win7如何设置多用户同时远程登录 1.创建一个用户 密码永不过期 2.在本地组策略编辑器里面,依次展开计算机配置--->管理模板--->Windows组件---> ...

随机推荐

  1. 邁向IT專家成功之路的三十則鐵律 鐵律十六:IT人交友之道-單純

    元曲知名的作家 白樸,曾在沉醉東風﹒漁夫一文創作中,寫道:「雖無刎頸交,卻有忘機友」.IT人交朋友應首重在單純而非廣泛,因為實際上越複雜的朋友圈,只會為你的工作以及生活帶來許多不必要的麻煩.至於男女朋 ...

  2. IOS 后台保持连接

    当iphone应用程序进行网络编程时,切到后台后,socket连接会断掉,ios的设计就是这样. 但是好在apple公司也没有那么绝,还是有一些东西可以在后台运行的(backgroundmodes), ...

  3. 如何直接打开使用locate等查找到的文件

    很多的时候需要使用locate去定位文件,找到了文件之后接下来就是使用相应的文本编辑工具如gvim进行打开. 这个时候最烦心的就是去复制一大长串的地址了. 如果能让定位和打开一体操作就最好了,这就需要 ...

  4. hibernate 自动封装

    一.查询全部对象属性的封装则比较简单 Query query = this.getSession().createSQLQuery(queryString).addEntity(pojoClass); ...

  5. cocos2d-x入口类

    上一篇文章中有一个在栈中创建的实例--AppDelegate.这个类的初始化使cocos2d-x的程序能够执行起来.由于它是继承于CCApplication类.而执行的run方法就是在此类中实现的. ...

  6. 【随想】android是个什么东西,andorid机制随想

    优秀程序猿的天性就是好奇,软件是怎么运作的.屏幕是怎样显示的.桌面窗口为何能如此人性化的被鼠标拖动? 假设你常常会有这样一些问题迸发在脑海中,恭喜你,你是一名非常有潜力的程序猿. 我在大学读的是自己主 ...

  7. sql quer

    SELECT (SELECT COUNT (sysid) FROM FwInvConsumable WHERE parentref = g.sysid AND (ns.state = 'Invento ...

  8. krpano HTML5 Viewer可以实现全景展示

    http://www.krpano360.com/ krpanp 陀螺仪调取 全景展示

  9. 搭建基于Jenkins的CI服务器

    安装Jenkins和创建任务这些操作网上一搜一大把,这里就没必要写了,直接就开始编译.单元测试,覆盖,git提交触发构建,构建失败发送给提交人邮件. 因为项目比较复杂,为了懒省事我直接在CI服务器上安 ...

  10. jQuery AjaxUpload中文使用API和demo示例

    1.AjaxUpload上传插件 浏览器迫使我们使用文件输入控件(<input type=”file” />)做上传,然而此控件的样式是不能修改的.此外,基于表单上传在流行的Ajax应用程 ...