一.简介 此文是对利用jieba,word2vec,LR进行搜狐新闻文本分类的准确性的提升,数据集和分词过程一样,这里就不在叙述,读者可参考前面的处理过程 经过jieba分词,产生24000条分词结果(sohu_train.txt有24000行数据,每行对应一个分词结果) with open('cutWords_list.txt') as file: cutWords_list = [ k.split() for k in file ] 1)TfidfVectorizer模型 调用sklearn