因需求,现需分词接口,故记录之。

1、需要依赖:

 <!-- https://mvnrepository.com/artifact/com.janeluo/ikanalyzer -->
<dependency>
<groupId>com.janeluo</groupId>
<artifactId>ikanalyzer</artifactId>
<version>2012_u6</version>
</dependency>

maven依赖

2、完整代码如下:

 public JSONArray entropy(String content, Integer quantity) throws Exception {
List<String> words = extract(DelHtmlTagUtil.delHTMLTag(content), quantity);
JSONArray array = calculateWordEntropy(words);
return array;
} /**
* 传入String类型的文章,智能提取单词放入list
*
* @param content 传入分词的内容
* @param quantity 截取关键字在几个单词以上的数量,默认为1
* @return
*/
private List<String> extract(String content, Integer quantity) throws IOException {
List<String> list = Lists.newArrayList();
StringReader reader = new StringReader(content);
IKSegmenter ik = new IKSegmenter(reader, true);
Lexeme lex = null;
while ((lex = ik.next()) != null) {
//String typeString = lex.getLexemeTypeString(); 词语类型
String word = lex.getLexemeText();
if (word.length() > quantity) {//判断截取关键字在几个单词以上的数量
list.add(word);
}
}
return list;
} private JSONArray calculateWordEntropy(List<String> words) throws Exception{ int length = words.size();
ArrayList<String[]> wordList = new ArrayList<String[]>();
// 将分好的词每3个一组存到数组中
for (int i = 0; i < length; i++) { String[] wordSeg = new String[3];
if (i == 0) {
wordSeg[0] = "null";
wordSeg[1] = words.get(i);
wordSeg[2] = words.get(i + 1);
} else if (i == length - 1) {
wordSeg[0] = words.get(i - 1);
wordSeg[1] = words.get(i);
wordSeg[2] = "null";
} else {
wordSeg[0] = words.get(i - 1);
wordSeg[1] = words.get(i);
wordSeg[2] = words.get(i + 1);
} wordList.add(wordSeg); }
// 去除重复的词
List<String> lists = Lists.newArrayList();
for (int l = 0; l < length; l++) {
lists.add(words.get(l));
}
List<String> tempList = Lists.newArrayList();
for (String str : lists) {
if (!(tempList.contains(str))) {
tempList.add(str);
}
}
String[] wordClean = new String[tempList.size()];
for (int m = 0; m < tempList.size(); m++) {
wordClean[m] = tempList.get(m);
}
// 统计每个词的词频
int[] frequent = new int[wordClean.length];
for (int j = 0; j < wordClean.length; j++) {
int count = 0;
for (int k = 0; k < words.size(); k++) {
if (wordClean[j].equals(words.get(k))) {
count++;
}
}
frequent[j] = count;
}
// 将三元组中中间的那个词相同的存到一个list中,然后计算该词的信息熵
double[] allEntropy = new double[wordClean.length];
for (int n = 0; n < wordClean.length; n++) {
ArrayList<String[]> wordSegList = new ArrayList<String[]>();
int count = 1;
for (int p = 0; p < wordList.size(); p++) {
String[] wordSegStr = wordList.get(p);
if (wordSegStr[1].equals(wordClean[n])) {
count++;
wordSegList.add(wordSegStr);
}
}
String[] leftword = new String[wordSegList.size()];
String[] rightword = new String[wordSegList.size()];
// 计算左信息熵
for (int i = 0; i < wordSegList.size(); i++) {
String[] left = wordSegList.get(i);
leftword[i] = left[0];
}
// 去除左边重复的词
List<String> listsLeft = new ArrayList<String>();
for (int l = 0; l < leftword.length; l++) {
listsLeft.add(leftword[l]);
}
List<String> tempListLeft = new ArrayList<String>();
for (String str : listsLeft) {
if (!(tempListLeft.contains(str))) {
tempListLeft.add(str);
}
}
String[] leftWordClean = new String[tempListLeft.size()];
for (int m = 0; m < tempListLeft.size(); m++) {
leftWordClean[m] = tempListLeft.get(m);
}
// 统计左边每个词的词频
int[] leftFrequent = new int[leftWordClean.length];
for (int j = 0; j < leftWordClean.length; j++) {
int leftcount = 0;
for (int k = 0; k < leftword.length; k++) {
if (leftWordClean[j].equals(leftword[k])) {
leftcount++;
}
}
leftFrequent[j] = leftcount;
}
// 计算左熵值
double leftEntropy = 0;
for (int i = 0; i < leftFrequent.length; i++) {
double a = (double) leftFrequent[i] / count;
double b = Math.log((double) leftFrequent[i] / count);
leftEntropy += -a * b;
// leftEntropy +=
// (-(double)(leftFrequent[i]/count))*Math.log((double)(leftFrequent[i]/count));
}
// 计算右信息熵
for (int i = 0; i < wordSegList.size(); i++) {
String[] right = wordSegList.get(i);
rightword[i] = right[2];
}
// 去除右边重复的词
List<String> listsRight = new ArrayList<String>();
for (int l = 0; l < rightword.length; l++) {
listsRight.add(rightword[l]);
}
List<String> tempListRight = new ArrayList<String>();
for (String str : listsRight) {
if (!(tempListRight.contains(str))) {
tempListRight.add(str);
}
}
String[] rightWordClean = new String[tempListRight.size()];
for (int m = 0; m < tempListRight.size(); m++) {
rightWordClean[m] = tempListRight.get(m);
}
// 统计右边每个词的词频
int[] rightFrequent = new int[rightWordClean.length];
for (int j = 0; j < rightWordClean.length; j++) {
int rightcount = 0;
for (int k = 0; k < rightword.length; k++) {
if (rightWordClean[j].equals(rightword[k])) {
rightcount++;
}
}
rightFrequent[j] = rightcount;
}
// 计算右熵值
double rightEntropy = 0.0;
for (int i = 0; i < rightFrequent.length; i++) {
double a = (double) rightFrequent[i] / count;
double b = Math.log((double) rightFrequent[i] / count);
rightEntropy += -a * b;
// rightEntropy +=
// (-(double)(rightFrequent[i]/count))*Math.log((double)(rightFrequent[i]/count));
}
// 计算词的总信息熵
double wordEntropy = leftEntropy + rightEntropy;
allEntropy[n] = wordEntropy; }
JSONArray list = new JSONArray();
for (int i = 0; i < allEntropy.length; i++) {
JSONObject obj = new JSONObject();
obj.put("name", wordClean[i]);
obj.put("entropy", allEntropy[i]);
list.add(obj);
}
Collections.sort(list, (o1, o2) -> {
Double d1 = ((JSONObject) o1).getDouble("entropy");
Double d2 = ((JSONObject) o2).getDouble("entropy");
return d2.compareTo(d1);
}); return list;
}

处理代理

ikanalyzer分词,计算信息熵排序分词结果的更多相关文章

  1. python 分词计算文档TF-IDF值并排序

    文章来自于我的个人博客:python 分词计算文档TF-IDF值并排序 该程序实现的功能是:首先读取一些文档,然后通过jieba来分词,将分词存入文件,然后通过sklearn计算每一个分词文档中的tf ...

  2. IKAnalyzer结合Lucene实现中文分词

    1.基本介绍 随着分词在信息检索领域应用的越来越广泛,分词这门技术对大家并不陌生.对于英文分词处理相对简单,经过拆分单词.排斥停止词.提取词干的过程基本就能实现英文分词,单对于中文分词而言,由于语义的 ...

  3. php 分词 —— PHPAnalysis无组件分词系统

    分词,顾名思义就是把词语分开,从哪里分开?当然是一大堆词语里了,一大堆词语是什么?是废话或者名言.这在数据库搜索时非常有用. 官方网站 http://www.phpbone.com/phpanalys ...

  4. 自然语言处理之中文分词器-jieba分词器详解及python实战

    (转https://blog.csdn.net/gzmfxy/article/details/78994396) 中文分词是中文文本处理的一个基础步骤,也是中文人机自然语言交互的基础模块,在进行中文自 ...

  5. 利用IK分词器,自定义分词规则

    IK分词源码下载地址:https://code.google.com/p/ik-analyzer/downloads/list lucene源码下载地址:http://www.eu.apache.or ...

  6. Python 结巴分词(1)分词

    利用结巴分词来进行词频的统计,并输出到文件中. 结巴分词github地址:结巴分词 结巴分词的特点: 支持三种分词模式: 精确模式,试图将句子最精确地切开,适合文本分析: 全模式,把句子中所有的可以成 ...

  7. 【Lucene3.6.2入门系列】第05节_自定义停用词分词器和同义词分词器

    首先是用于显示分词信息的HelloCustomAnalyzer.java package com.jadyer.lucene; import java.io.IOException; import j ...

  8. Lucene学习-深入Lucene分词器,TokenStream获取分词详细信息

    Lucene学习-深入Lucene分词器,TokenStream获取分词详细信息 在此回复牛妞的关于程序中分词器的问题,其实可以直接很简单的在词库中配置就好了,Lucene中分词的所有信息我们都可以从 ...

  9. 盘古分词demo,盘古分词怎么用

    1.下载PanGu.dll dll地址:http://download.csdn.net/detail/dhfekl/7493687 2.将PanGu.dll和词库引入到项目 最新词库地址:http: ...

随机推荐

  1. hdu 1.2.5

    #include<cstdio> #include<cstring> int main() { //freopen("input.txt","r& ...

  2. hog行人检测

    本文主要介绍下opencv中怎样使用hog算法,因为在opencv中已经集成了hog这个类.其实使用起来是很简单的,从后面的代码就可以看出来.本文参考的资料为opencv自带的sample. 关于op ...

  3. .net framework 4.5 +steeltoe+ springcloud(三)实现Hystrix断路器

    在基于.net framework的服务客户端实现断路器功能,基本项目创建步骤可以参照我的另一篇发现和调用服务的笔记,地址:http://www.cnblogs.com/troytian/p/8621 ...

  4. nginx-1.服务器是什么

    服务器相信很多电脑爱好者都听过或者了解一些,一般我们很难看到真正的服务器,因为服务器一般均放置在机房重点,闲人一般均是免进的.比如我们每天浏览的网站.玩的游戏等,所有的数据均存在服务器,服务器一般都在 ...

  5. cglib invoke 和 invokeSuper 可用的组合

    在深入字节码理解invokeSuper无限循环的原因中,我们理解的cglib的原理和其中一个合理的调用方式.但是这个调用方式是基于类的,对所有实例生效.实际场景中,我们可能只是希望代理某个具体的实例, ...

  6. Windows Service 项目中 Entity Framework 无法加载的问题

    Windows Service 项目引用了别的类库项目,别的项目用到了 Entity Framework(通过Nuget引入),但是我的 Windows Service 无法开启,于是我修改了 App ...

  7. 【UML】:时序图

    时序图表达了类之间调用关系,以及调用时序关系. Actor: 调用者实例化类的对象,执行者. Lifeline: 生命线,竖的虚线.上方方框是类名表示存在的时间,从上至下表示时间流逝.Lifeline ...

  8. centos清华源地址,ubuntu阿里云源

    清华这个源挺好用,替换原先/etc/yum.repos.d/CentOS-Base.repo, 然后运行 sudo yum makecache 生成缓存 centos6 [base] name=Cen ...

  9. [转载]windows下安装Python虚拟环境virtualenv,virtualenvwrapper-win

    1 前言 由于Python的版本众多,还有Python2和Python3的争论,因此有些软件包或第三方库就容易出现版本不兼容的问题. 通过 virtualenv 这个工具,就可以构建一系列 虚拟的Py ...

  10. Python语法基础练习