1.安装jieba库 舍友帮装的,我也不会( ╯□╰ ) 2.上网寻找政府工作报告 3.参照课本三国演义词频统计代码编写 import jieba txt = open("D:\政府工作报告.txt","r",encoding='utf-8').read() words = jieba.lcut(txt) counts = {} for word in words: if len(word) == 1: continue else: counts[word] = c
各位学python的朋友,是否也曾遇到过这样的问题,举个例子如下: “I am proud of my motherland” 如果我们需要提取中间的单词要走如何做? 自然是调用string中的split()函数即可 那么将这转换成中文呢,“我为我的祖国感到骄傲”再分词会怎样? 中国词汇并不像是英文文本那样可以通过空格又或是标点符号来区分, 这将会导致比如“骄傲”拆开成“骄”.“傲”,又或者将“为”“我的”组合成“为我的”等等 那如何避免这些问题呢? 这就用到了今天介绍的python基础库——j