利用python将标题切割成词语 import jieba #读取文件 f=open(r"F:\大数据\大作业\爬取到的数据\data1_xinxi.txt",'r') s=f.read() #print(s) #切割文件中的字符串 zifuchuan=s.split("\n");#按行分割 i= zifuchuan1=[]#标题 zifuchuan2=[]#文章链接 zifuchuan3=[]#作者 for ss in zifuchuan: if ss!='':#…
利用python过滤去没用的词语,过滤的词语存储在停用文件中. #创建停用词表 def stopwordlist(): stopwords=[line.strip() for line in open ('F:\大数据\大作业\分词后的文件\stopWord.txt','r').readlines()] return stopwords f=open(r"F:\大数据\大作业\分词后的文件\data2_xinxi.txt",'r') s=f.read() #切割文件中的字符串 zifu…
统计词语出现的频率,并且按从高到低的顺序报错在文件中 def main(): file=open("F:\大数据\大作业\分词后的文件\data4_xinxi.txt",'r') wordCounts={} #先建立一个空的字典,用来存储单词 和相应出现的频次 count= #显示前多少条(按照单词出现频次从高到低) for line in file: lineprocess(line.lower(),wordCounts) #对于每一行都进行处理,调用lineprocess()函数,…