对于一段英文,如果希望提取其中的的单词,只需要使用字符串处理的split()方法即可,例如“China is a great country”. 然而对于中文文本,中文单词之间缺少分隔符,这是中文及类似语言独有的“分词问题”. jieba(“结巴”)是python中一个重要的第三方中文分词函数库.jieba库是第三方库,不是python安装包自带的,因此,需要通过pip指令安装. Windows 下使用命令安装:在联网状态下,在命令行下输入 pip install jieba 进行安装,安装
jieba “结巴”中文分词:做最好的 Python 中文分词组件 "Jieba" (Chinese for "to stutter") Chinese text segmentation: built to be the best Python Chinese word segmentation module. Scroll down for English documentation. 特点 支持三种分词模式: 精确模式,试图将句子最精确地切开,适合文本分析:
各位学python的朋友,是否也曾遇到过这样的问题,举个例子如下: “I am proud of my motherland” 如果我们需要提取中间的单词要走如何做? 自然是调用string中的split()函数即可 那么将这转换成中文呢,“我为我的祖国感到骄傲”再分词会怎样? 中国词汇并不像是英文文本那样可以通过空格又或是标点符号来区分, 这将会导致比如“骄傲”拆开成“骄”.“傲”,又或者将“为”“我的”组合成“为我的”等等 那如何避免这些问题呢? 这就用到了今天介绍的python基础库——j
1.安装jieba库 舍友帮装的,我也不会( ╯□╰ ) 2.上网寻找政府工作报告 3.参照课本三国演义词频统计代码编写 import jieba txt = open("D:\政府工作报告.txt","r",encoding='utf-8').read() words = jieba.lcut(txt) counts = {} for word in words: if len(word) == 1: continue else: counts[word] = c