接上一章,动态页面抓取——抓取京东评论区内容. url=‘https://club.jd.com/comment/productPageComments.action?callback=fetchJSON_comment98vv399&productId=4560435&score=0&sortType=5&page=0&pageSize=10&isShadowSku=0&fold=1’ 重点是productId——产品id.page——页码.pag…
一.基本数据类型 什么是数据类型 变量:描述世间万物的事物的属性状态 为了描述世间万物的状态,所以有了数据类型,对数据分类 为什么要对数据分类 针对不同的状态需要不同的数据类型标识 数据类型的分类 二.数字类型 整型(int) 作用 表示人的年龄 / 身份证号 定义 age = 21 pringt(age, type(age)) # 打印结果:21 <class 'int'> # 或者: age = int(21) print(age, type(age)) # 打印结果:21 <cla…
1.jieba库的基本介绍 (1).jieba是优秀的中文分词第三方库 中文文本需要通过分词获得单个的词语 jieba是优秀的中文分词第三方库,需要额外安装 jieba库提供三种分词模式,最简单只需掌握一个函数 (2).jieba分词的原理 Jieba分词依靠中文词库 利用一个中文词库,确定汉字之间的关联概率 汉字间概率大的组成词组,形成分词结果 除了分词,用户还可以添加自定义的词组 2.jieba库使用说明 (1).jieba分词的三种模式 精确模式.全模式.搜索引擎模式 精确模式:把文本精确…
具体错误提示如下: >>> import jieba Traceback (most recent call last): File "<stdin>", line 1, in <module> File "C:\Users\wyf349\AppData\Local\Programs\Python\Python36-32\lib\site-packages\jieba\__init__.py", line 11, in &l…
import jieba 精确模式,试图将句子最精确地切开,适合文本分析:全模式,把句子中所有的可以成词的词语都扫描出来, 速度非常快,但是不能解决歧义:搜索引擎模式,在精确模式的基础上,对长词再次切分,提高召回率,适合用于搜索引擎分词. .cut() sentence 需要分词的字符串 cut_all=F 是否采用全模式(否则使用精确模式) HMM=T 是否使用HMM模型(可识别不在词典中的词) .cut_for_search() (sentence, HMM=T) 搜索引擎模式 .load_…
import jieba jieba.add_word("福军") jieba.add_word("少安") excludes={"一个","他们","自己","现在","已经","什么","这个","没有","这样","知道","两个"} txt…
1.利用jieba分词,排除停用词stopword之后,对文章中的词进行词频统计,并用matplotlib进行直方图展示 # coding: utf-8 import codecs import matplotlib.pyplot as plt import jieba # import sys # reload(sys) # sys.setdefaultencoding('utf-8') from pylab import mpl mpl.rcParams['font.sans-serif']…
第一步:首先需要安装工具python 第二步:在电脑cmd后台下载安装如下工具: (有一些是安装好python电脑自带有哦) 有一些会出现一种情况就是安装不了词云展示库 有下面解决方法,需看请复制链接查看:https://www.lfd.uci.edu/~gohlke/pythonlibs/#wordcloud 第三步: 1.准备好你打算统计的文件,命名为 家.txt,保存到桌面 2.准备一个做背景的图片,命名为girl.jpg,同样保存到桌面 第四步:插入代码 import re # 正则表达…
1. 词云简介 词云,又称文字云.标签云,是对文本数据中出现频率较高的“关键词”在视觉上的突出呈现,形成关键词的渲染形成类似云一样的彩色图片,从而一眼就可以领略文本数据的主要表达意思.常见于博客.微博.文章分析等. 除了网上现成的Wordle.Tagxedo.Tagul.Tagcrowd等词云制作工具,在python中也可以用wordcloud包比较轻松地实现(官网.github项目): from wordcloud import WordCloud import matplotlib.pypl…
先来个最简单的: # 查找列表中出现次数最多的值 ls = [1, 2, 3, 4, 5, 6, 1, 2, 1, 2, 1, 1] ls = ["呵呵", "呵呵", "呵呵", "哈哈", "哈哈", "拉拉"] y = max(set(ls), key=ls.count) print(y) 一.字频统计: ( collections 库) 2017-10-27 这个库是python…