一.安装所需要的第三方库 jieba (jieba是优秀的中文分词第三分库) pyecharts (一个优秀的数据可视化库) <三国演义>.txt下载地址(提取码:kist ) 使用pycharm安装库 打开Pycharm选择[File]下的Settings 出现下面页面, 选择右边的[+]出现下面页面,在此页面顶端搜索想要的库,然后安装就可以了 二.编写代码 import jieba #导入库 import os print("人物出现次数前十名:") txt = ope…
介绍了Python统计日志中每个IP出现次数的方法,实例分析了Python基于正则表达式解析日志文件的相关技巧,需要的朋友可以参考下 本脚本可用于多种日志类型 #-*- coding:utf-8 -*- import re,time def mail_log(file_path): global count log=open(file_path,'r') C=r'\.'.join([r'\d{1,3}']*4) find=re.compile(C) count={} for i in log:…
python 统计字符串中指定字符出现次数的方法: strs = "They look good and stick good!" count_set = ['look','good'] res=strs.count('good') print(res)…
使用python解析有道词典导出的xml格式单词,统计各个首字母出现的次数,并按次数由多到少进行排序 相关实现 导出的xml格式如下 <wordbook> <item> <word>portion</word> <trans><![CDATA[n. 部分:一份:命运vt. 分配:给-嫁妆]]></trans> <phonetic><![CDATA[['pɔːʃ(ə)n]]]></phoneti…
方法一: 推导式 dd="ewq4aewtaSDDSFDTFDSWQrtewtyufashas" print {i:dd.count(i) for i in dd} 方法二: counter import collections dd="ewq4aewtaSDDSFDTFDSWQrtewtyufashas" obj = collections.Counter(dd) print obj 取值: for k,v in obj.items(): print (k,v)…
一.环境 1.python3.6 2.windows系统 3.安装第三方模块 pip install wordcloud #词云展示库 pip install jieba #结巴分词 pip install matplotlib #图像展示库 二.需求 统计article.txt里的文章的词频 三.代码 import collections #词库统计库,自带模块 import re #正则表达式 自带模块 import wordcloud #词云展示库,pip install wordclou…
PythonCharm简易安装python统计包及 本文介绍使用pythonCharm IDE 来安装Python统计包或一些packages的简单过程,基本无任何技术难度,顺便提一提笔者在安装过程中遇到的两个小问题. ================================================================================================================== 1.pythonCharm介绍 对于这款IDE的描…
本文实例展示了Python统计列表中的重复项出现的次数的方法,是一个很实用的功能,适合Python初学者学习借鉴.具体方法如下:对一个列表,比如[1,2,2,2,2,3,3,3,4,4,4,4],现在我们需要统计这个列表里的重复项,并且重复了几次也要统计出来.方法1:mylist = [1,2,2,2,2,3,3,3,4,4,4,4]myset = set(mylist) #myset是另外一个列表,里面的内容是mylist里面的无重复 项for item in myset: print("th…
Python抓取小说 前言 这个脚本命令MAC在抓取小说写,使用Python它有几个码. 代码 # coding=utf-8 import re import urllib2 import chardet import sys from bs4 import BeautifulSoup import codecs class Spider(): def __init__(self): self.aTag=re.compile("<a href=\"(http://www.44pq…
分析: 1. 读取小说,以读的形式打开 with open('文件名.txt','r',encoding='utf8') as f: str = f.read() 2. 切割小说 ret = jieba.lcut(str) 3. 统计所有词语出现次数 --> 准备一个字典 dic = {} for word in ret: if len(word) == 1: # 去掉名字为一个字的 continue dic[word] = dic.get(word, 0) + 1 准备一个多余称呼的列表 ex…