作业练习P194,jieba应用,读取,分词,存储,生成词云,排序,保存
import jieba #第一题
txt='Python是最有意思的编程语言'
words=jieba.lcut(txt) #精确分词
words_all=jieba.lcut(txt,cut_all=True) #全分词
words_sh=jieba.lcut_for_search(txt) #搜索分词 print(words)
print(words_all)
print(words_sh) #第二题
txt1="今天晚上我吃了意大利面"
jieba.add_word("意大利面") #增加分词
words=jieba.lcut(txt1) print(words) #第三题 filepath=r'D:/python/test-py/水浒传.txt'
f=open(filepath,'r',encoding='utf-8')
txt=f.read()
f.close()
words=jieba.lcut(txt)
counts={}
keylist=[]
for word in words:
if len(word)==1:
continue
else:
counts[word]=counts.get(word,0)+1
items=list(counts.items())
items.sort(key=lambda x:x[1],reverse=True)
for i in range(35):
word,count=items[i]
keylist.append(word)
print("{0:^15}--{1:>5}".format(word,count)) print('\n排名前15个词为:',keylist)
#对统计结果进行保存
f=open(r'D:/python/test-py/shuihuzhuang.txt','w')
for i in range(35):
f.write(str(items[i])) ##for i in str(items):
## f.write(i)
##f.write(str(keylist))
f.close() #接上面程序,使用wordcloud输出
def pt(ls):
print(ls) from wordcloud import WordCloud #前15个生成新的列表
##pt('\n新的列表为:')
##for a,b in items[1:16]: #取15个元素
## keylist.append(a)
##pt(keylist)
newtxt=' '.join(keylist) #空格替换
print('\n空格替换后生成:',newtxt)
excludes={'一个'}
wordcloud=WordCloud(background_color='white',\
width=800,\
height=600,\
font_path='msyhbd.ttf',\
max_words=200,\
max_font_size=80,\
stopwords=excludes,\
).generate(newtxt) #生成词云
wordcloud.to_file(r'D:/python/test-py/水浒传.png') ###z最后执行打包合作,在cmd.exe命令行程序 切换到py存放文件夹输入:PyInstaller -F p194zuoye.py
##newlist=[a[i] for a in items] ##pt(newlist)
作业练习P194,jieba应用,读取,分词,存储,生成词云,排序,保存的更多相关文章
- python爬虫——京东评论、jieba分词、wordcloud词云统计
接上一章,动态页面抓取——抓取京东评论区内容. url=‘https://club.jd.com/comment/productPageComments.action?callback=fetchJS ...
- Python3+pdfminer+jieba+wordcloud+matplotlib生成词云(以深圳十三五规划纲要为例)
一.各库功能说明 pdfminer----用于读取pdf文件的内容,python3安装pdfminer3k jieba----用于中文分词 wordcloud----用于生成词云 matplotlib ...
- python 基于 wordcloud + jieba + matplotlib 生成词云
词云 词云是啥?词云突出一个数据可视化,酷炫.以前以为很复杂,不想python已经有成熟的工具来做词云.而我们要做的就是准备关键词数据,挑一款字体,挑一张模板图片,非常非常无脑.准备好了吗,快跟我一起 ...
- wordcloud + jieba 生成词云
利用jieba库和wordcloud生成中文词云. jieba库:中文分词第三方库 分词原理: 利用中文词库,确定汉字之间的关联概率,关联概率大的生成词组 三种分词模式: 1.精确模式:把文本精确的切 ...
- Jieba库使用和好玩的词云
jieba库的使用: (1) jieba库是一款优秀的 Python 第三方中文分词库,jieba 支持三种分词模式:精确模式.全模式和搜索引擎模式,下面是三种模式的特点. 精确模式:试图将语句最精 ...
- python jieba 库分词结合Wordcloud词云统计
import jieba jieba.add_word("福军") jieba.add_word("少安") excludes={"一个", ...
- 使用jieba和wordcloud进行中文分词并生成《悲伤逆流成河》词云
因为词云有利于体现文本信息,所以我就将那天无聊时爬取的<悲伤逆流成河>的评论处理了一下,生成了词云. 关于爬取影评的爬虫大概长这个样子(实际上是没有爬完的): #!/usr/bin/env ...
- python使用matplotlib画图,jieba分词、词云、selenuium、图片、音频、视频、文字识别、人脸识别
一.使用matplotlib画图 关注公众号"轻松学编程"了解更多. 使用matplotlib画柱形图 import matplotlib from matplotlib impo ...
- python jieba 词云
#!/usr/bin/python # coding:utf-8 # 绘制一个<三体>全集词云 # pip install jieba # pip install matplotlib # ...
随机推荐
- ES6中的class类的理解
传统的javascript中只有对象,没有类的概念.它是基于原型的面向对象语言.原型对象特点就是将自身的属性共享给新对象.这样的写法相对于其它传统面向对象语言来讲,很有一种独树一帜的感脚!非常容易让人 ...
- 无法将“Scaffold-DbContext”项识别为 cmdlet、函数、脚本文件或可运行程序的名称...
原文链接:https://my.oschina.net/taadis/blog/889560 为什么80%的码农都做不了架构师?>>> PM> Scaffold-DbC ...
- Java设计模式之一单例模式
什么是单例模式 保证一个系统中的某个类只有一个实例而且该实例易于外界访问.例如Windows界面的任务管理器就可以看做是一个单例. 单例模式的使用场景 需要频繁的进行创建和销毁的对象: 创建对象时耗时 ...
- Chapter Two
Web容器配置 ~Tomcat配置 server.port配置了Web容器的端口号 error.path配置了当项目出错时跳转去的页面 session.timeout配置了session失效的时间 c ...
- 第06组 Alpha冲刺(1/6)
队名:拾光组 组长博客链接 作业博客链接 团队项目情况 燃尽图(组内共享) 宋奕 过去两天完成了哪些任务 主要完成了用户模块接口 具体完成了用户注册登录,忘记.修改密码,修改.查看个人信息 GitHu ...
- fastjson字段顺序问题
构造函数中指定使用有序 public JSONObject(boolean ordered) { this(16, ordered);} 示例: JSONObject fastJson = new J ...
- flutter 运行别人项目 包无法导入报错:Target of URI doesn't exist 'package:flutter/material.dart' 解决方法
命令行里运行 flutter packages get
- ISO/IEC 9899:2011 条款6.8.5——迭代语句
6.8.5 迭代语句 语法 1.iteration-statement: while ( expression ) statement do statement w ...
- Opencv图片明暗处理
Opencv图片明暗处理 #include <iostream> #include <opencv2/opencv.hpp> using namespace std; usin ...
- React错误收集
1. Uncaught Error: Element type is invalid: expected a string (for built-in components) or a class/ ...