接上一章,动态页面抓取——抓取京东评论区内容. url=‘https://club.jd.com/comment/productPageComments.action?callback=fetchJSON_comment98vv399&productId=4560435&score=0&sortType=5&page=0&pageSize=10&isShadowSku=0&fold=1’ 重点是productId——产品id.page——页码.pag…
一.基本数据类型 什么是数据类型 变量:描述世间万物的事物的属性状态 为了描述世间万物的状态,所以有了数据类型,对数据分类 为什么要对数据分类 针对不同的状态需要不同的数据类型标识 数据类型的分类 二.数字类型 整型(int) 作用 表示人的年龄 / 身份证号 定义 age = 21 pringt(age, type(age)) # 打印结果:21 <class 'int'> # 或者: age = int(21) print(age, type(age)) # 打印结果:21 <cla…
wordclou:根据文本生成词云 一.词云设置 wc=WordCloud(width=400, height=200, #画布长.宽,默认(400,200)像素 margin=1, #字与字之间的距离 background_color='white',#背景颜色 min_font_size=3,max_font_size=None,#显示的最小,最大的字体大小 max_words=200,#显示的词的最大个数 ranks_only=None,#是否只是排名 prefer_horizontal=…
wordcloud词云模块 下载 pip install wordcloud 使用 import wordcloud##调用整个模块 form wordcloud import WordCloud##调用wordcloud中的WordCloud子模块 1.配置模块参数 2.加载文本.generate() 3.输出词云文件.to_file(" ") from wordcloud import WordCloud from imageio import imread import matp…
1.jieba库的基本介绍 (1).jieba是优秀的中文分词第三方库 中文文本需要通过分词获得单个的词语 jieba是优秀的中文分词第三方库,需要额外安装 jieba库提供三种分词模式,最简单只需掌握一个函数 (2).jieba分词的原理 Jieba分词依靠中文词库 利用一个中文词库,确定汉字之间的关联概率 汉字间概率大的组成词组,形成分词结果 除了分词,用户还可以添加自定义的词组 2.jieba库使用说明 (1).jieba分词的三种模式 精确模式.全模式.搜索引擎模式 精确模式:把文本精确…
借鉴别人的一个小例子,快速生成词云的代码: from wordcloud import WordCloud f = open(u'txt/AliceEN.txt','r').read() wordcloud = WordCloud(background_color="white",width=1000, height=860, margin=2).generate(f) # width,height,margin可以设置图片属性 # generate 可以对全部文本进行自动分词,但是他…
import jieba import wordcloud f = open("新时代中国特色社会主义.txt", "r", encoding="gbk") #只读.txt文件.这里一定注意是gbk!!!,而不是utf-8(如果出错,请把encoding删除) t = f.read() f.close() ls = jieba.lcut(t) txt = " ".join(ls) w = wordcloud.WordCloud…
pip install wordcloud 需要用到numpy  pillow matplotlib 安装完成以后 wordcloud_cli --text in.txt --imagefile out.png --mask in.png text 是词云来源,mask 是背景框架 ,imagefile 输出的文件 wordcloud_cli --help 查看所有支持的命令参数 实例:…
import jieba jieba.add_word("福军") jieba.add_word("少安") excludes={"一个","他们","自己","现在","已经","什么","这个","没有","这样","知道","两个"} txt…
本文的完整源码在git位置:https://github.com/OceanBBBBbb/douban-ml 爬取豆瓣影评 爬豆瓣的影评比较简单,豆瓣没有做限制,甚至你都不用登陆就可以看全部,我这里用的bs4和urllib获取的页面信息: # 获取页面 def get_html(url): head = {} head[ 'User-Agent'] = 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, lik…