一,分词系统地址:https://github.com/NLPchina/ansj_seg

二,为什么选择ansj?

1.项目需求:

我们平台要做手机售后的舆情分析,即对购买手机的用户的评论进行分析。分析出手机每个模块(比如:相机,充电等。这些大模块还需要细分,比如充电又可以分:充电慢,没有快充等)的好差评,并且计算差评率,供开发后续改进。之前一直是人工分析,随着评论的增加,这一块也是一个很大的工作量。因此我们想到了做评论的自动分析。这就要用到自然语言处理的技术了。

2.ansj的优点

分词效率高,支持自定义词典(这是最重要的,我们需要根据我们的业务自定义自己的词库,方便我们进行观点分析)

三,业务分析

首先这个系统肯定不能完全代替人工作,我们的目标是尽可能的减少人的工作量。通过统计源声发现,很多评论就一两句话。通过正则表达式把把评论分句。发现小于3句的评论占比将近70%。只要重点处理这种评论就行。把评论分句后,提取出名词和观点匹配。提取出形容词和情感匹配(好评或差评)。这就是评论分析的思路。

四,项目集成分析系统

1.引入jar包

  1. <!-- nps 自然语言处理 -->
  2. <dependency>
  3. <groupId>org.nlpcn</groupId>
  4. <artifactId>nlp-lang</artifactId>
  5. <version>1.7.7</version>
  6. <scope>compile</scope>
  7. </dependency>

2.拷贝org.ansj包到src目录下

3.在resources目录下创建ansj_library.properties文件。这个文件项目里也有(注意这里要写绝对路径,不然会读不到自定义的文件。这是一个坑)

  1. #path of userLibrary this is default library
  2. #dic=library/default.dic
  3. dic=D:/Lure_workspace/iFocusStruc/src/main/resources/library/default.dic
  4. #path of crfModel
  5. #crf_dic1=library/crf.model
  6. userLibrary=D:/Lure_workspace/iFocusStruc/src/main/resources/userLibrary.dic
  7. #stop_dic1=library/stop.dic
  8.  
  9. #redress dic file path
  10. #ambiguity=library/ambiguity.dic
  11. ambiguity=D:/Lure_workspace/iFocusStruc/src/main/resources/library/ambiguity.dic
  12. synonyms=library/synonyms.dic
  13.  
  14. #set real name
  15. isRealName=true
  16.  
  17. #isNameRecognition default true
  18. isNameRecognition=true
  19.  
  20. #isNumRecognition default true
  21. isNumRecognition=true
  22.  
  23. #digital quantifier merge default true
  24. isQuantifierRecognition=true

3.把library文件夹拷贝到resources目录下,(这个library文件夹项目中有)

自定义词典:default.dic

  1. 连网 n 8000
  2. 发热 n 80000
  3. 这是 n 1000

4.把resource目录拷贝到本地resource目录。

5.测试:ToAnalysis方法

  1. @Test
  2. public void wordTest2333() {
  3. String str = "数据结构效果不好,连网太慢,发热严重";
  4. Result result = ToAnalysis.parse(str);
  5. List<Term> termList = result.getTerms();
  6. for (Term term : termList) {
  7. System.out.println(term.getName() + ":" + term.getNatureStr());
  8. }
  9. }

结果:   

数据结构:n
效果不好:a
,:w
连网:vn
太慢:d
,:w
发热:v
严重:a

数据结构:n    这个自定义的词生效了

连网:vn      没有生效

发热:v   没有生效

发现有问题,我明明把连网设置为了n,为什么还是vn。其实ToAnalysis只能使自定义的词在默认字典中不存在时,这个自定义的词才会生效(这个问题困扰了很久)。

测试二:DicAnalysis方法

  1. @Test
  2. public void wordTest2333() {
  3. String str = "数据结构效果不好,连网太慢,发热严重";
  4. Result result = DicAnalysis.parse(str);
  5. List<Term> termList = result.getTerms();
  6. for (Term term : termList) {
  7. System.out.println(term.getName() + ":" + term.getNatureStr());
  8. }
  9. }

结果:

  1. 数据结构:n
  2. 效果不好:a
  3. ,:w
  4. 连网:n
  5. 太慢:d
  6. ,:w
  7. 发热:n
  8. 严重:a

可以看到我们已经实现自定义的词库中的词全部生效了。

项目集成自动分词系统ansj,实现自定义词库的更多相关文章

  1. paip.禁用IKAnalyzer 的默认词库.仅仅使用自定义词库.

    paip.禁用IKAnalyzer 的默认词库.仅仅使用自定义词库. 作者Attilax  艾龙,  EMAIL:1466519819@qq.com  来源:attilax的专栏 地址:http:// ...

  2. paip..禁用mmseg 的默认词库. . 仅仅使用自定义词库from数据库.

    paip..禁用mmseg 的默认词库. . 仅仅使用自定义词库from数据库. mmseg默认词库只能是文件格式...不好维护..要是不个词库放的个数据库里面走好维护兰.. 要实现2个目标..: 1 ...

  3. Java——word分词·自定义词库

    word: https://github.com/ysc/word word-1.3.1.jar 需要JDK8word-1.2.jar c语言给解析成了“语言”,自定义词库必须为UTF-8 程序一旦运 ...

  4. 【自定义IK词典】Elasticsearch之中文分词器插件es-ik的自定义词库

    Elasticsearch之中文分词器插件es-ik 针对一些特殊的词语在分词的时候也需要能够识别 有人会问,那么,例如: 如果我想根据自己的本家姓氏来查询,如zhouls,姓氏“周”.      如 ...

  5. 31.IK分词器配置文件讲解以及自定义词库

    主要知识点: 知道IK默认的配置文件信息 自定义词库     一.ik配置文件     ik配置文件地址:es/plugins/ik/config目录     IKAnalyzer.cfg.xml:用 ...

  6. 30.IK分词器配置文件讲解以及自定义词库

    主要知识点: 知道IK默认的配置文件信息 自定义词库     一.ik配置文件     ik配置文件地址:es/plugins/ik/config目录     IKAnalyzer.cfg.xml:用 ...

  7. ElasticSearch7.3学习(十五)----中文分词器(IK Analyzer)及自定义词库

    1. 中文分词器 1.1 默认分词器 先来看看ElasticSearch中默认的standard 分词器,对英文比较友好,但是对于中文来说就是按照字符拆分,不是那么友好. GET /_analyze ...

  8. Java——ikanalyzer分词·只用自定义词库

    需要包:IKAnalyzer2012_FF_hf1.jarlucene-core-5.5.4.jar需要文件: IKAnalyzer.cfg.xmlext.dicstopword.dic 整理好的下载 ...

  9. solr添加中文IK分词器,以及配置自定义词库

    Solr是一个基于Lucene的Java搜索引擎服务器.Solr 提供了层面搜索.命中醒目显示并且支持多种输出格式(包括 XML/XSLT 和 JSON 格式).它易于安装和配置,而且附带了一个基于H ...

随机推荐

  1. Windows 在命令行中将输出内容放到文件中

    1.将命令行中输出的内容存储到文件中. 使用重定向符号 “>” 就可以了. 通过 > 可以创建新文件并将内容放到文件中,如果文件存在,则会覆盖. 2.通过 >> 可以向已有的文 ...

  2. vue原理简介

    写vue也有一段时间了,对vue的底层原理虽然有一些了解,这里总结一下. vue.js中有两个核心功能:响应式数据绑定,组件系统.主流的mvc框架都实现了单向数据绑定,而双向绑定无非是在单向绑定基础上 ...

  3. 为什么zookeeper集群中节点配置个数是奇数个?

    Zookeeper的大部分操作都是通过选举产生的.比如,标记一个写是否成功是要在超过一半节点发送写请求成功时才认为有效.同样,Zookeeper选择领导者节点也是在超过一半节点同意时才有效.最后,Zo ...

  4. python 列表 元祖

    # # 1,写代码,有如下列列表,按照要求实现每⼀一个功能li = ["alex", "WuSir", "ritian", "ba ...

  5. Linux平台上轻松安装与配置Domino

    Linux平台上轻松安装与配置Domino Domino Server的编译安装过程中需要用到libstdc++-2.9和glibc-2.1.1(或者其更高的版本)两个编译模块,它们是Linux开发编 ...

  6. ElasticSearch(二):允许外网连接服务配置

    上一篇文章的配置,只能在本机使用,但是要想为集群或者其他的机器连接,则需要做以下配置: 一.修改/opt/elasticsearch-6.4.0/config/elasticsearch.yml文件 ...

  7. SQL 服务器 - RDBMS

    SQL 数据类型 SQL functions 现代的 SQL 服务器构建在 RDBMS 之上. DBMS - 数据库管理系统(Database Management System) 数据库管理系统是一 ...

  8. tensorflow中的Supervisor

    tf.train.Supervisor()可以帮我们简化一些事情,可以保存模型参数和Summary,它有以下的作用: 1)自动去checkpoint加载数据或初始化数据 ,因此我们就不需要手动初始化或 ...

  9. vmware panic(CPU 0 caller 0x)launchd exited

    编辑VMX文件,在最后添加一行(g4560测试通过):cpuid.1.eax = "00000000000000010000011010100101"

  10. JDK动态代理Demo代码,进一步学习分析

    import java.lang.reflect.InvocationHandler; import java.lang.reflect.Method; import java.lang.reflec ...