Note of Jieba

jieba库是python 一个重要的第三方中文分词函数库,但需要用户自行安装。

一、jieba 库简介

(1) jieba 库的分词原理是利用一个中文词库,将待分词的内容与分词词库进行比对,通过图结构和动态规划方法找到最大概率的词组;除此之外,jieba 库还提供了增加自定义中文单词的功能。

(2) jieba 库支持3种分词模式:

精确模式:将句子最精确地切开,适合文本分析。

全模式:将句子中所以可以成词的词语都扫描出来,速度非常快,但是不能消除歧义。

搜索引擎模式:在精确模式的基础上,对长分词再次切分,提高召回率,适合搜索引擎分词。

二、安装库函数

(1) 在命令行下输入指令:

pip install jieba

(2) 安装进程:

三、调用库函数

(1) 导入库函数:import  <库名>

使用库中函数:<库名> . <函数名> (<函数参数>)

(2) 导入库函数:from  <库名>  import * ( *为通配符 )

使用库中函数:<函数名> (<函数参数>)

四、jieba 库函数

(1) 库函数功能

模式

函数

说明

精确模式

cut(s)

返回一个可迭代数据类型

lcut(s)

返回一个列表类型 (建议使用)

全模式

cut(s,cut_all=True)

输出s中所以可能的分词

lcut(s,cut_all=True)

返回一个列表类型 (建议使用)

搜索引擎模式

cut_for_search(s)

适合搜索引擎建立索引的分词结果

lcut_for_search(s)

返回一个列表类型 (建议使用)

自定义新词

add_word(w)

向分词词典中增加新词w

(2) 函数使用实例

五、对一篇文档进行词频统计

(1) jieba 库单枪匹马

A. 代码实现

注:代码使用的文档 >>> Detective_Novel(utf-8).zip[点击下载],也可自行找 utf-8 编码格式的txt文件。

 1 # -*- coding:utf-8 -*-
2 from jieba import *
3
4 def Replace(text,old,new): #替换列表的字符串
5 for char in old:
6 text = text.replace(char,new)
7 return text
8
9 def getText(filename): #读取文件内容(utf-8 编码格式)
10 #特殊符号和部分无意义的词
11 sign = '''!~·@¥……*“”‘’\n(){}【】;:"'「,」。-、?'''
12 txt = open('{}.txt'.format(filename),encoding='utf-8').read()
13 return Replace(txt,sign," ")
14
15 def word_count(passage,N): #计算passage文件中的词频数,并将前N个输出
16 words = lcut(passage) #精确模式分词形式
17 counts = {} #创建计数器 --- 字典类型
18 for word in words: #消除同意义的词和遍历计数
19 if word == '小五' or word == '小五郎' or word == '五郎':
20 rword = '毛利'
21 elif word == '柯' or word == '南':
22 rword = '柯南'
23 elif word == '小' or word == '兰':
24 rword = '小兰'
25 elif word == '目' or word == '暮' or word == '警官':
26 rword = '暮目'
27 else:
28 rword = word
29 counts[rword] = counts.get(rword,0) + 1
30 excludes = lcut_for_search("你我事他和她在这也有什么的是就吧啊吗哦呢都了一个")
31 for word in excludes: #除去意义不大的词语
32 del(counts[word])
33 items = list(counts.items()) #转换成列表形式
34 items.sort(key = lambda x : x[1], reverse = True ) #按次数排序
35 for i in range(N): #依次输出
36 word,count = items[i]
37 print("{:<7}{:>6}".format(word,count))
38
39 if __name__ == '__main__':
40 passage = getText('Detective_Novel') #输入文件名称读入文件内容
41 word_count(passage,20) #调用函数得到词频数

B. 执行结果

(2) jieba 库 和 wordcloud 库 强强联合 --- 词云图

A. 代码实现

 1 # -*- coding:utf-8 -*-
2 from wordcloud import WordCloud
3 import matplotlib.pyplot as plt
4 import numpy as np
5 from PIL import Image
6 from jieba import *
7
8 def Replace(text,old,new): #替换列表的字符串
9 for char in old:
10 text = text.replace(char,new)
11 return text
12
13 def getText(filename): #读取文件内容(utf-8 编码格式)
14 #特殊符号和部分无意义的词
15 sign = '''!~·@¥……*“”‘’\n(){}【】;:"'「,」。-、?'''
16 txt = open('{}.txt'.format(filename),encoding='utf-8').read()
17 return Replace(txt,sign," ")
18
19 def creat_word_cloud(filename): #将filename 文件的词语按出现次数输出为词云图
20 text = getText(filename) #读取文件
21 wordlist = lcut(text) #jieba库精确模式分词
22 wl = ' '.join(wordlist) #生成新的字符串
23
24 #设置词云图
25 font = r'C:\Windows\Fonts\simfang.ttf' #设置字体路径
26 wc = WordCloud(
27 background_color = 'black', #背景颜色
28 max_words = 2000, #设置最大显示的词云数
29 font_path = font, #设置字体形式(在本机系统中)
30 height = 1200, #图片高度
31 width = 1600, #图片宽度
32 max_font_size = 100, #字体最大值
33 random_state = 100, #配色方案的种类
34 )
35 myword = wc.generate(wl) #生成词云
36 #展示词云图
37 plt.imshow(myword)
38 plt.axis('off')
39 plt.show()
40 #以原本的filename命名保存词云图
41 wc.to_file('{}.png'.format(filename))
42
43 if __name__ == '__main__':
44 creat_word_cloud('Detective_Novel') #输入文件名生成词云图

B. 执行结果

jieba库的更多相关文章

  1. jieba库词频统计练习

    在sypder上运行jieba库的代码: import matplotlib.pyplot as pltfracs = [2,2,1,1,1]labels = 'houqin', 'jiemian', ...

  2. 如何运用jieba库分词

    使用jieba库分词 一.什么是jieba库 1.jieba库概述 jieba是优秀的中文分词第三方库,中文文本需要通过分词获得单个词语. 2.jieba库的使用:(jieba库支持3种分词模式) 通 ...

  3. jieba库与好玩的词云的学习与应用实现

    经过了一些学习与一些十分有意义的锻(zhe)炼(mo),我决定尝试一手新接触的python第三方库 ——jieba库! 这是一个极其优秀且强大的第三方库,可以对一个文本文件的所有内容进行识别,分词,甚 ...

  4. jieba库的使用与词频统计

    1.词频统计 (1)词频分析是对文章中重要词汇出现的次数进行统计与分析,是文本 挖掘的重要手段.它是文献计量学中传统的和具有代表性的一种内容分析方法,基本原理是通过词出现频次多少的变化,来确定热点及其 ...

  5. 广师大学习笔记之文本统计(jieba库好玩的词云)

    1.jieba库,介绍如下: (1) jieba 库的分词原理是利用一个中文词库,将待分词的内容与分词词库进行比对,通过图结构和动态规划方法找到最大概率的词组:除此之外,jieba 库还提供了增加自定 ...

  6. jieba 库的使用和好玩的词云

    jieba库的使用: (1)  jieba库是一款优秀的 Python 第三方中文分词库,jieba 支持三种分词模式:精确模式.全模式和搜索引擎模式,下面是三种模式的特点. 精确模式:试图将语句最精 ...

  7. 用jieba库统计文本词频及云词图的生成

    一.安装jieba库 :\>pip install jieba #或者 pip3 install jieba 二.jieba库解析 jieba库主要提供提供分词功能,可以辅助自定义分词词典. j ...

  8. jieba库和好玩的词云

    首先,通过pip3 install jieba安装jieba库,随后在网上下载<斗破>. 代码如下: import jieba.analyse path = '小说路径' fp = ope ...

  9. jieba库初级应用

    1.jieba库基本介绍 (1).jieba库概述 jieba是优秀的中文分词第三方库 - 中文文本需要通过分词获得单个的词语         - jieba是优秀的中文分词第三方库,需要额外安装 - ...

随机推荐

  1. PMP知识点(六)——项目经理权利类型

    社会心理学家约翰.弗伦奇(John.French)和伯特伦.雷文(Bertram.Raven)在他们1959年发表的一篇迄今不朽的论文中,提出了五种权力类别的模型,这个模型折射出权力拥有者依赖的不同基 ...

  2. Aras 引入外部的dll

    1.在vs中编译项目.然后找到项目目录生成好的dll. 2.找到Aras的安装目录:...\Aras\Innovator\Innovator\Server,将dll放到该目录下.然后在该目录下找到me ...

  3. go语言圣经练习

    练习 3.10: 编写一个非递归版本的comma函数,使用bytes.Buffer代替字符串链接操作. package main import ( "fmt" "os&q ...

  4. mysql,mycat的demo

    一直都是使用公司架构师提供的mycat,今天得空自己尝试了以下: 1.首先安装jdk(官网建议1.7及以上版本),mysql(我安装的是5.7.19-0ubuntu0.16.04.1,设置账号密码为r ...

  5. Contest2163 - 2019-3-28 高一noip基础知识点 测试6 题解版

    传送门 @dsfz201814 改题 T1:全锕,过 T2:全锕,过 T3:@dsfz201814 先用竖着放置的木块将它变成高度差最大为1的数列 然后对于任意相邻相等的两块,可以将它看成任意 例如, ...

  6. 第31月第17天 resolveInstanceMethod

    1. #import "UIView+Test.h" #import <objc/runtime.h> @implementation UIView (Test) + ...

  7. 题解:[GXOI/GZOI2019]与或和

    开始完全没思路 在洛谷看到样例一,突发奇想,决定先做一下元素只有0/1的情况 发现子任务1是全1子矩阵 子任务2是总子矩阵个数减去全0子矩阵 发现全0/1矩阵可以构造单调栈解决.具体做法:前缀和求出每 ...

  8. python3.5 默认安装路径 | 安装 | 删除

    win7 环境下: Python3.5默认安装路径是当前用户的 AppData\..  下 这么做的一个可能原因是 现在安装过程中默认是install just for me,这个会把python默认 ...

  9. 强大的Resharp插件(转)

    使用VS有段时间了,一直深深的折服于其强大的功能.之前一直听说有Resharp这个工具,小猪一直也没有太在意.直到今天…… 下载安装: http://www.jetbrains.com/resharp ...

  10. Ubuntu版本linux系统安装git

    可以使用apt-get方式安装,也可以下载源代码安装,我们这里使用apt-git安装.但由于直接使用 sudo apt-get install git 安装的版本较老,因此我们参考[2]中给出的PPA ...