1、首先在pom中引入ansj_seg和nlp-lang的依赖包,

  ansj_seg包的作用:

    这是一个基于n-Gram+CRF+HMM的中文分词的java实现;

    分词速度达到每秒钟大约200万字左右(mac air下测试),准确率能达到96%以上;

    目前实现了.中文分词. 中文姓名识别 . 用户自定义词典,关键字提取,自动摘要,关键字标记等功能;

    可以应用到自然语言处理等方面,适用于对分词效果要求高的各种项目;

  nlp-lang包的作用(nlp常用工具和组件):

    工具:词语标准化、tire树结构、双数组tire树、文本断句、html标签清理、Viterbi算法增加;

    组件:汉字转拼音、简繁体转换、bloomfilter、指纹去重、SimHash文章相似度计算、词贡献统计、基于内存的搜索提示、WordWeight词频统计,词idf统计,词类别相关度统计;

  如下:

<!-- nlp-lang -->
<dependency>
<groupId>org.nlpcn</groupId>
<artifactId>nlp-lang</artifactId>
<version>1.7.2</version>
</dependency>
<!-- ansj_seg -->
<dependency>
<groupId>org.ansj</groupId>
<artifactId>ansj_seg</artifactId>
<version>5.1.2</version>
</dependency>

2、创建WordUtil类,如下:

package com.mengyao.nlp.util;

import java.util.ArrayList;
import java.util.Collection;
import java.util.List;
import java.util.Map;
import java.util.Map.Entry; import org.ansj.app.keyword.KeyWordComputer;
import org.ansj.app.keyword.Keyword;
import org.ansj.app.summary.SummaryComputer;
import org.ansj.app.summary.pojo.Summary;
import org.ansj.domain.Result;
import org.ansj.domain.Term;
import org.ansj.splitWord.analysis.IndexAnalysis;
import org.ansj.splitWord.analysis.NlpAnalysis;
import org.ansj.splitWord.analysis.ToAnalysis;
import org.apache.commons.lang3.StringUtils;
import org.nlpcn.commons.lang.jianfan.JianFan;
import org.nlpcn.commons.lang.pinyin.Pinyin;
import org.nlpcn.commons.lang.util.WordAlert;
import org.nlpcn.commons.lang.util.WordWeight;

/**
 *
 * @author mengyao
 *
 */
public class WordUtil { public static void main(String[] args) {
System.out.println("2016/06/25".matches("^\\d{4}(\\-|\\/|\\.)\\d{1,2}\\1\\d{1,2}$"));
System.out.println("20160625".matches("^\\d{8}$"));
} /**
* 文章摘要
* @param title
* @param content
* @return
*/
public static String getSummary(String title, String content) {
SummaryComputer summaryComputer = new SummaryComputer(title, content);
Summary summary = summaryComputer.toSummary();
return summary.getSummary();
} /**
* 带标题的文章关键词提取
* @param title
* @param content
* @return
*/
public static List<Keyword> getKeyWord(String title, String content) {
List<Keyword> keyWords = new ArrayList<Keyword>();
KeyWordComputer<NlpAnalysis> kwc = new KeyWordComputer<NlpAnalysis>(20);
Collection<Keyword> result = kwc.computeArticleTfidf(title, content);
for (Keyword keyword : result) {
keyWords.add(keyword);
}
return keyWords;
} /**
* 不带标题的文章关键词提取
* @param content
* @return
*/
public static List<Keyword> getKeyWord2(String content) {
List<Keyword> keyWords = new ArrayList<Keyword>();
KeyWordComputer<NlpAnalysis> kwc = new KeyWordComputer<NlpAnalysis>(20);
Collection<Keyword> result = kwc.computeArticleTfidf(content);
for (Keyword keyword : result) {
keyWords.add(keyword);
}
return keyWords;
} /**
* 标准分词
* @param text
* @return
*/
public static List<Term> getToSeg(String text) {
List<Term> words = new ArrayList<Term>();
Result parse = ToAnalysis.parse(text);
for (Term term : parse) {
if (null!=term.getName()&&!term.getName().trim().isEmpty()) {
words.add(term);
}
}
return words;
} /**
* NLP分词
* @param text
* @return
*/
public static List<Term> getNlpSeg(String text) {
List<Term> words = new ArrayList<Term>();
Result parse = NlpAnalysis.parse(text);
for (Term term : parse) {
if (null!=term.getName()&&!term.getName().trim().isEmpty()) {
words.add(term);
}
}
return words;
} /**
* Index分词
* @param text
* @return
*/
public static List<Term> getIndexSeg(String text) {
List<Term> words = new ArrayList<Term>();
Result parse = IndexAnalysis.parse(text);
for (Term term : parse) {
if (null!=term.getName()&&!term.getName().trim().isEmpty()) {
words.add(term);
}
}
return words;
} /**
* 简体转繁体
* @param word
* @return
*/
public static String jian2fan(String text) {
return JianFan.j2f(text);
} /**
* 繁体转简体
* @param word
* @return
*/
public static String fan2jian(String text) {
return JianFan.f2j(text);
} /**
* 拼音(不带音标)
* @param word
* @return
*/
public static String pinyin(String text) {
StringBuilder builder = new StringBuilder();
List<String> pinyins = Pinyin.pinyin(text);
for (String pinyin : pinyins) {
if (null != pinyin) {
builder.append(pinyin+" ");
}
}
return builder.toString();
} /**
* 拼音(不带音标,首字母大写)
* @param word
* @return
*/
public static String pinyinUp(String text) {
StringBuilder builder = new StringBuilder();
List<String> pinyins = Pinyin.pinyin(text);
for (String pinyin : pinyins) {
if (StringUtils.isEmpty(pinyin)) {
continue;
}
builder.append(pinyin.substring(0,1).toUpperCase()+pinyin.substring(1));
}
return builder.toString();
} /**
* 拼音(带数字音标)
* @param word
* @return
*/
public static String tonePinyin(String text) {
StringBuilder builder = new StringBuilder();
List<String> pinyins = Pinyin.tonePinyin(text);
for (String pinyin : pinyins) {
if (null != pinyin) {
builder.append(pinyin+" ");
}
}
return builder.toString();
} /**
* 拼音(带符号音标)
* @param word
* @return
*/
public static String unicodePinyin(String text) {
StringBuilder builder = new StringBuilder();
List<String> pinyins = Pinyin.unicodePinyin(text);
for (String pinyin : pinyins) {
if (null != pinyin) {
builder.append(pinyin+" ");
}
}
return builder.toString();
} /**
* 词频统计
* @param words
* @return
*/
public static Map<String, Double> wordCount(List<String> words) {
WordWeight ww = new WordWeight();
for (String word : words) {
ww.add(word);
}
return ww.export();
} /**
* 词频统计
* @param words
* @return
*/
public static List<String> wordCount1(List<String> words) {
List<String> wcs = new ArrayList<String>();
WordWeight ww = new WordWeight();
for (String word : words) {
ww.add(word);
}
Map<String, Double> export = ww.export();
for (Entry<String, Double> entry : export.entrySet()) {
wcs.add(entry.getKey()+":"+entry.getValue());
}
return wcs;
} /**
* 语种识别:1英文;0中文
* @param words
* @return
*/
public static int language(String word) {
return WordAlert.isEnglish(word)?1:0;
} }

基于ansj_seg和nlp-lang的简单nlp工具类的更多相关文章

  1. 分享基于MemoryCache(内存缓存)的缓存工具类,C# B/S 、C/S项目均可以使用!

    using System; using System.Collections.Generic; using System.Linq; using System.Runtime.Caching; usi ...

  2. Go/Python/Erlang编程语言对比分析及示例 基于RabbitMQ.Client组件实现RabbitMQ可复用的 ConnectionPool(连接池) 封装一个基于NLog+NLog.Mongo的日志记录工具类LogUtil 分享基于MemoryCache(内存缓存)的缓存工具类,C# B/S 、C/S项目均可以使用!

    Go/Python/Erlang编程语言对比分析及示例   本文主要是介绍Go,从语言对比分析的角度切入.之所以选择与Python.Erlang对比,是因为做为高级语言,它们语言特性上有较大的相似性, ...

  3. Apache Commons Lang之日期时间工具类

    码农不识Apache,码尽一生也枉然. FastDateFormat FastDateFormat是一个快速且线程安全的时间操作类,它完全可以替代SimpleDateFromat.因为是线程安全的,所 ...

  4. JDBC第一篇--【介绍JDBC、使用JDBC连接数据库、简单的工具类】

    1.什么是JDBC JDBC全称为:Java Data Base Connectivity,它是可以执行SQL语句的Java API 2.为什么我们要用JDBC 市面上有非常多的数据库,本来我们是需要 ...

  5. JDBC【介绍JDBC、使用JDBC连接数据库、简单的工具类】

    1.什么是JDBC JDBC全称为:Java Data Base Connectivity,它是可以执行SQL语句的Java API 2.为什么我们要用JDBC 市面上有非常多的数据库,本来我们是需要 ...

  6. 基于数组阻塞队列 ArrayBlockingQueue 的一个队列工具类

    java语言基于ArrayBlockingQueue 开发的一个根据特定前缀和后缀的队列.每天自动循环生成. 1.定义队列基类 Cookie package com.bytter.util.queue ...

  7. SSM-MyBatis-10:Mybatis中SqlSession的getMapper()和简单的工具类MyBatisUtils

    ------------吾亦无他,唯手熟尔,谦卑若愚,好学若饥------------- getMapper的作用,获取到接口,直接通过点的方式调用方法,以免直接手打的方式写错方法名,(强类型的方式) ...

  8. 字符串排序简单的工具类,数组转list,list转数组

    public static void main(String[] args) { /* String[] str = {"a", "c", "b&qu ...

  9. 基于Java反射的map自动装配JavaBean工具类设计

    我们平时在用Myabtis时不是常常需要用map来传递参数,大体是如下的步骤: public List<Role> findRoles(Map<String,Object> p ...

  10. 基于json-lib-2.2.2-jdk15.jar的JSON解析工具类大集合

    json解析之前的必备工作:导入json解析必须的六个包 资源链接:百度云:链接:https://pan.baidu.com/s/1dAEQQy 密码:1v1z 代码示例: package com.s ...

随机推荐

  1. QT分析之调试跟踪系统

    原文地址:http://blog.163.com/net_worm/blog/static/127702419201002004518944/ 在我们前面的分析中,经常看到qWarning()和qDe ...

  2. name(实例化类名).hbm.xml文件案例

    [html] view plain copy print? <span xmlns="http://www.w3.org/1999/xhtml"><?xml ve ...

  3. Flink中的数据传输与背压

    一图道尽心酸: 大的原理,上游的task产生数据后,会写在本地的缓存中,然后通知JM自己的数据已经好了,JM通知下游的Task去拉取数据,下游的Task然后去上游的Task拉取数据,形成链条. 但是在 ...

  4. CentOS 用户管理useradd、usermod等

    1.创建新用户useradd,默认的用户家目录会被存放在/home 目录中,默认的 Shell 解释器为/bin/bash,而且默认会创建一个与该用户同名的基本用户组. 主要参数: -d 指定用户的家 ...

  5. US Open 2016 Contest

    比较弱,只写了金组和银组,铂金组的第一题. [262144] http://www.usaco.org/index.php?page=viewproblem2&cpid=648 给一个序列,相 ...

  6. MySQL - General error: 1390 Prepared statement contains too many placeholders

    报错原因:预处理 SQL语句时使用的占位符数量超过了最大限制(默认65535). 解决方案:拆分查询语句,每次使用的占位符低于限制即可.

  7. (ex)BSGS题表

    学了一下BSGS大概知道他是什么了,但是并没有做什么难题,所以也就会个板子.普通的BSGS,我还是比较理解的,然而exBSGS我却只理解个大概,也许还会个板子......(这个东西好像都会有一群恶心的 ...

  8. 清华大学计算机系大二 java 小学期考试题(摘自知乎)

    public class Main { public void test(Object o) { System.out.println("Object"); } public vo ...

  9. Codeforces Round #342 (Div. 2) B

    B. War of the Corporations time limit per test 1 second memory limit per test 256 megabytes input st ...

  10. supervisor安装、配置和运行

    supervisor是python写的进程管理工具,supervisor能够批量对进程执行启动,停止,重启等操作,有效提高了运维效率.注意supervisor只能管理前台进程,supervisor会自 ...