因为想把一段文字分词,所以,需要明确一定的词语关系. 在网上随便下载了一篇中文小说.随便的txt小说,就1mb多.要数数这1mb多的中文到底有多少字,多少分词,这些分词的词性是什么样的. 这里是思路 1)先把小说读到内存里面去. 2)再把小说根据正则表达法开始分词,获得小说中汉字总数 3)将内存中的小说每段POST到提供分词服务的API里面去,获取分词结果 4)按照API说明,取词 素材: .linux/GNU => debian/ubuntu Preferred .python .中文分词AP