elasticsearch分词器Jcseg安装手册
Jcseg是什么?
Jcseg是基于mmseg算法的一个轻量级中文分词器,同时集成了关键字提取,关键短语提取,关键句子提取和文章自动摘要等功能,并且提供了一个基于Jetty的web服务器,方便各大语言直接http调用,同时提供了最新版本的lucene, solr, elasticsearch的分词接口!Jcseg自带了一个 jcseg.properties文件用于快速配置而得到适合不同场合的分词应用,例如:最大匹配词长,是否开启中文人名识别,是否追加拼音,是否追加同义词等!
Jcseg核心功能:
- 中文分词:mmseg算法 + Jcseg 独创的优化算法,四种切分模式。
- 关键字提取:基于textRank算法。
- 关键短语提取:基于textRank算法。
- 关键句子提取:基于textRank算法。
- 文章自动摘要:基于BM25+textRank算法。
- 自动词性标注:基于词库+(统计歧义去除计划),目前效果不是很理想,对词性标注结果要求较高的应用不建议使用。
- 命名实体标注:基于词库+(统计歧义去除计划),电子邮件,网址,大陆手机号码,地名,人名,货币,datetime时间,长度,面积,距离单位等。
- Restful api:嵌入jetty提供了一个绝对高性能的server模块,包含全部功能的http接口,标准化json输出格式,方便各种语言客户端直接调用。
Jcseg中文分词:
六种切分模式:
- (1).简易模式:FMM算法,适合速度要求场合。
- (2).复杂模式:MMSEG四种过滤算法,具有较高的歧义去除,分词准确率达到了98.41%。
- (3).检测模式:只返回词库中已有的词条,很适合某些应用场合。
- (4).检索模式:细粒度切分,专为检索而生,除了中文处理外(不具备中文的人名,数字识别等智能功能)其他与复杂模式一致(英文,组合词等)。
- (5).分隔符模式:按照给定的字符切分词条,默认是空格,特定场合的应用。
- (6).NLP模式:继承自复杂模式,更改了数字,单位等词条的组合方式,增加电子邮件,大陆手机号码,网址,人名,地名,货币等以及无限种自定义实体的识别与返回。
- 支持自定义词库。在lexicon文件夹下,可以随便添加/删除/更改词库和词库内容,并且对词库进行了分类。
- 支持词库多目录加载. 配置lexicon.path中使用';'隔开多个词库目录.
- 词库分为简体/繁体/简繁体混合词库: 可以专门适用于简体切分, 繁体切分, 简繁体混合切分, 并且可以利用下面提到的同义词实现,简繁体的相互检索, Jcseg同时提供了词库两个简单的词库管理工具来进行简繁体的转换和词库的合并。
- 中英文同义词追加/同义词匹配 + 中文词条拼音追加.词库整合了《现代汉语词典》和cc-cedict辞典中的词条,并且依据cc-cedict词典为词条标上了拼音,依据《中华同义词词典》为词条标上了同义词(尚未完成)。更改jcseg.properties配置文档可以在分词的时候加入拼音和同义词到分词结果中。
- 中文数字和中文分数识别,例如:"一百五十个人都来了,四十分之一的人。"中的"一百五十"和"四十分之一"。并且 Jcseg会自动将其转换为阿拉伯数字加入到分词结果中。如:150, 1/40。
- 支持中英混合词和英中混合词的识别(维护词库可以识别任何一种组合)。例如:B超, x射线, 卡拉ok, 奇都ktv, 哆啦a梦。
- 更好的英文支持,电子邮件,域名,小数,分数,百分数,字母和标点组合词(例如C++, c#)的识别。
- 自定义切分保留标点. 例如: 保留&, 就可以识别k&r这种复杂词条。
- 复杂英文切分结果的二次切分: 可以保留原组合,同时可以避免复杂切分带来的检索命中率下降的情况,例如QQ2013会被切分成: qq2013/ qq/ 2013, chenxin619315@gmail.com会被切分成: chenxin619315@gmail.com/ chenxin/ 619315/ gmail/ com。
- 支持阿拉伯数字/小数/中文数字基本单字单位的识别,例如2012年,1.75米,38.6℃,五折,并且 Jcseg会将其转换为“5折”加入分词结果中。
- 智能圆角半角, 英文大小写转换。
- 特殊字母识别:例如:Ⅰ,Ⅱ;特殊数字识别:例如:①,⑩。
- 配对标点内容提取:例如:最好的Java书《java编程思想》,‘畅想杯黑客技术大赛’,被《,‘,“,『标点标记的内容。(1.6.8版开始支持)。
- 智能中文人名/外文翻译人名识别。中文人名识别正确率达94%以上。(中文人名可以维护lex-lname.lex,lex-dname-1.lex,lex-dname-2.lex来提高准确率),(引入规则和词性后会达到98%以上的识别正确率)。
- 自动中英文停止词过滤功能(需要在jcseg.properties中开启该选项,lex-stopwords.lex为停止词词库)。
- 词库更新自动加载功能, 开启一个守护线程定时的检测词库的更新并且加载(注意需要有对应词库目录下的的lex-autoload.todo文件的写入权限)。
- 自动词性标注(目前基于词库)。
- 自动实体的识别,默认支持:电子邮件,网址,大陆手机号码,地名,人名,货币等;词库中可以自定义各种实体并且再切分中返回。
Jcseg快速体验:
终端测试:
- cd到 Jcseg根目录。
- ant all(或者使用maven编译)
- 运行:java -jar jcseg-core-{version}.jar
- 你将看到如下的终端界面
- 在光标处输入文本开始测试(输入:seg_mode参数切换可以体验各种切分算法)
+--------Jcseg chinese word tokenizer demo---------------+
|- @Author chenxin<chenxin619315@gmail.com> |
|- :seg_mode : switch to specified tokenizer mode. |
|- (:complex,:simple,:search,:detect,:delimiter,:NLP) |
|- :keywords : switch to keywords extract mode. |
|- :keyphrase : switch to keyphrase extract mode. |
|- :sentence : switch to sentence extract mode. |
|- :summary : switch to summary extract mode. |
|- :help : print this help menu. |
|- :quit : to exit the program. |
+--------------------------------------------------------+
jcseg~tokenizer:complex>>
测试样板:
分词文本
歧义和同义词
:
研究生命起源,混合词
:
做
B
超检查身体,
x
射线本质是什么,今天去奇都
ktv
唱卡拉
ok
去,哆啦
a
梦是一个动漫中的主角,单位和全角
: 2009
年8月6日开始大学之旅,岳阳今天的气温为
38.6
℃
,
也就是
101.48
℉
,
中文数字
/
分数
:
你分三十分之二
,
小陈拿三十分之五
,
剩下的三十分之二十三全部是我的,那是一九九八年前的事了,四川麻辣烫很好吃,五四运动留下的五四精神。笔记本五折包邮亏本大甩卖。人名识别
:
我是陈鑫,也是
jcseg
的作者,三国时期的诸葛亮是个天才,我们一起给刘翔加油,罗志高兴奋极了因为老吴送了他一台笔记本。外文名识别:冰岛时间
7
月
1
日,正在当地拍片的汤姆
·
克鲁斯通过发言人承认,他与第三任妻子凯蒂
·
赫尔墨斯(第一二任妻子分别为咪咪
·
罗杰斯、妮可
·
基德曼)的婚姻即将结束。配对标点
:
本次『畅想杯』黑客技术大赛的得主为电信
09-2BF
的张三,奖励
C++
程序设计语言一书和【畅想网络】的『
PHP
教程』一套。特殊字母
:
【
Ⅰ
】(
Ⅱ
),英文数字
: bug report chenxin619315@gmail.com or visit http://code.google.com/p/jcseg, we all admire the hacker spirit!
特殊数字
: ① ⑩
⑽
㈩
.
分词结果:
歧义
/n
和
/o
同义词
/n :/w
研究
/vn
琢磨
/vn
研讨
/vn
钻研
/vn
生命
/n
起源
/n
,
/w
混合词
:/w
做
/v b
超
/n
检查
/vn
身体
/n
,
/w x
射线
/n x
光线
/n
本质
/n
是
/a
什么
/n
,
/w
今天
/t
去
/q
奇都
ktv/nz
唱
/n
卡拉
ok/nz
去
/q
,
/w
哆啦
a
梦
/nz
是
/a
一个
/q
动漫
/n
中
/q
的
/u
主角
/n
,
/w
单位
/n
和
/o
全角
/nz :/w 2009
年
/m 8
月
/m 6
日
/m
开始
/n
大学
/n
之旅
,
/w
岳阳
/ns
今天
/t
的
/u
气温
/n
为
/u 38.6
℃
/m ,/w
也就是
/v 101.48
℉
/m ,/w
中文
/n
国语
/n
数字
/n //w
分数
/n :/w
你
/r
分
/h
三十分之二
/m ,/w
小陈
/nr
拿
/nh
三十分之五
/m ,/w
剩下
/v
的
/u
三十分之二十三
/m
全部
/a
是
/a
我的
/nt
,
/w
那是
/c
一九九八年
/m 1998
年
/m
前
/v
的
/u
事
/i
了
/i
,
/w
四川
/ns
麻辣烫
/n
很
/m
好吃
/v
,
/w
五四运动
/nz
留下
/v
的
/u
五四
/m 54/m
精神
/n
。
/w
笔记本
/n
五折
/m 5
折
/m
包邮
亏本
/v
大甩卖
甩卖
。
/w
人名
/n
识别
/v :/w
我
/r
是
/a
陈鑫
/nr
,
/w
也
/e
是
/a jcseg/en
的
/u
作者
/n
,
/w
三国
/mq
时期
/n
的
/u
诸葛亮
/nr
是个
天才
/n
,
/w
我们
/r
一起
/d
给
/v
刘翔
/nr
加油
/v
,
/w
罗志高
/nr
兴奋
/v
极了
/u
因为
/c
老吴
/nr
送了
他
/r
一台
笔记本
/n
。
/w
外文
/n
名
/j
识别
/v
:
/w
冰岛
/ns
时间
/n 7
月
/m 1
日
/m
,
/w
正在
/u
当地
/s
拍片
/vi
的
/u
汤姆
·
克鲁斯
/nr
阿汤哥
/nr
通过
/v
发言人
/n
承认
/v
,
/w
他
/r
与
/u
第三
/m
任
/q
妻子
/n
凯蒂
·
赫尔墨斯
/nr
(
/w
第一
/a
二
/j
任
/q
妻子
/n
分别为
咪咪
·
罗杰斯
/nr
、
/w
妮可
·
基德曼
/nr
)
/w
的
/u
婚姻
/n
即将
/d
结束
/v
。
/w
配对
/v
标点
/n :/w
本次
/r
『
/w
畅想杯
/nz
』
/w
黑客
/n
技术
/n
大赛
/vn
的
/u
得主
/n
为
/u
电信
/nt 09/en -/w bf/en 2bf/en
的
/u
张三
/nr
,
/w
奖励
/vn c++/en
程序设计
/gi
语言
/n
一书
/ns
和
/o
【
/w
畅想网络
/nz
】
/w
的
/u
『
/w PHP
教程
/nz
』
/w
一套
/m
。
/w
特殊
/a
字母
/n :/w
【
/w
Ⅰ
/nz
】
/w
(
/w
Ⅱ
/m
)
/w
,
/w
英文
/n
英语
/n
数字
/n :/w bug/en report/en chenxin/en 619315/en gmail/en com/en chenxin619315@gmail.com/en or/en visit/en http/en :/w //w //w code/en google/en com/en code.google.com/en //w p/en //w jcseg/en ,/w we/en all/en admire/en appreciate/en like/en love/en enjoy/en the/en hacker/en spirit/en mind/en !/w
特殊
/a
数字
/n :/w ①/m ⑩/m
⑽
/m
㈩
/m ./w
Jcseg Maven仓库:
Jcseg从1.9.8才开始上传到了maven仓库!
- jcseg-core:
- <dependency>
- <groupId>org.lionsoul</groupId>
- <artifactId>jcseg-core</artifactId>
- <version>2.2.0</version>
- </dependency>
- jcseg-analyzer (lucene或者solr):
- <dependency>
- <groupId>org.lionsoul</groupId>
- <artifactId>jcseg-analyzer</artifactId>
- <version>2.2.0</version>
- </dependency>
- jcseg-elasticsearch
- <dependency>
- <groupId>org.lionsoul</groupId>
- <artifactId>jcseg-elasticsearch</artifactId>
- <version>2.2.0</version>
- </dependency>
- jcseg-server (独立的应用服务器)
- <dependency>
- <groupId>org.lionsoul</groupId>
- <artifactId>jcseg-server</artifactId>
- <version>2.2.0</version>
- </dependency>
Jcseg lucene分词接口:
- 导入jcseg-core-{version}.jar和jcseg-analyzer-{version}.jar
- demo代码:
- //lucene 5.x
- //Analyzer analyzer = new JcsegAnalyzer5X(JcsegTaskConfig.COMPLEX_MODE);
- //available constructor: since 1.9.8
- //1, JcsegAnalyzer5X(int mode)
- //2, JcsegAnalyzer5X(int mode, String proFile)
- //3, JcsegAnalyzer5X(int mode, JcsegTaskConfig config)
- //4, JcsegAnalyzer5X(int mode, JcsegTaskConfig config, ADictionary dic)
- //lucene 4.x版本
- //Analyzer analyzer = new JcsegAnalyzer4X(JcsegTaskConfig.COMPLEX_MODE);
- //lucene 6.3.0以及以上版本
- Analyzer analyzer = new JcsegAnalyzer(JcsegTaskConfig.COMPLEX_MODE);
- //available constructor:
- //1, JcsegAnalyzer(int mode)
- //2, JcsegAnalyzer(int mode, String proFile)
- //3, JcsegAnalyzer(int mode, JcsegTaskConfig config)
- //4, JcsegAnalyzer(int mode, JcsegTaskConfig config, ADictionary dic)
- //非必须(用于修改默认配置): 获取分词任务配置实例
- JcsegAnalyzer jcseg = (JcsegAnalyzer) analyzer;
- JcsegTaskConfig config = jcseg.getTaskConfig();
- //追加同义词, 需要在 jcseg.properties中配置jcseg.loadsyn=1
- config.setAppendCJKSyn(true);
- //追加拼音, 需要在jcseg.properties中配置jcseg.loadpinyin=1
- config.setAppendCJKPinyin();
- //更多配置, 请查看 org.lionsoul.jcseg.tokenizer.core.JcsegTaskConfig
Jcseg solr分词接口:
- 将jcseg-core-{version}.jar和jcseg-analyzer-{version}.jar 复制到solr 的类库目录中。
- 在solr的scheme.xml加入如下两种配置之一:
- <!-- 复杂模式分词: -->
- <fieldtype name="textComplex" class="solr.TextField">
- <analyzer>
- <tokenizer class="org.lionsoul.jcseg.analyzer.JcsegTokenizerFactory" mode="complex"/>
- </analyzer>
- </fieldtype>
- <!-- 简易模式分词: -->
- <fieldtype name="textSimple" class="solr.TextField">
- <analyzer>
- <tokenizer class="org.lionsoul.jcseg.analyzer.JcsegTokenizerFactory" mode="simple"/>
- </analyzer>
- </fieldtype>
- <!-- 检测模式分词: -->
- <fieldtype name="textDetect" class="solr.TextField">
- <analyzer>
- <tokenizer class="org.lionsoul.jcseg.analyzer.JcsegTokenizerFactory" mode="detect"/>
- </analyzer>
- </fieldtype>
- <!-- 检索模式分词: -->
- <fieldtype name="textSearch" class="solr.TextField">
- <analyzer>
- <tokenizer class="org.lionsoul.jcseg.analyzer.JcsegTokenizerFactory" mode="search"/>
- </analyzer>
- </fieldtype>
- <!-- NLP模式分词: -->
- <fieldtype name="textSearch" class="solr.TextField">
- <analyzer>
- <tokenizer class="org.lionsoul.jcseg.analyzer.JcsegTokenizerFactory" mode="nlp"/>
- </analyzer>
- </fieldtype>
- <!-- 空格分隔符模式分词: -->
- <fieldtype name="textSearch" class="solr.TextField">
- <analyzer>
- <tokenizer class="org.lionsoul.jcseg.analyzer.JcsegTokenizerFactory" mode="delimiter"/>
- </analyzer>
- </fieldtype>
备注:
- 如果使用的是solr-4.x版本,请下载v1.9.7-release tag下的源码编译得到对应的jar,然后将上述xml中的v5x改成v4x即可。
- 如果是使用的是solr-6.3.0以下版本,JcsegTokenizerFactory包名路径为:org.lionsoul.jcseg.analyzer.v5x.JcsegTokenizerFactory
Jcseg elasticsearch接口:
elasticsearch.version < 2.x (Not sure)
- 下载最新版本的 Jcseg源码。
- 使用maven或者ant编译打包得到 Jcseg的系列jar包(建议使用maven,ant需要自己下载对应的依赖包)。
- 拷贝jcseg-analyzer-{version}.jar,jcseg-core-{version}.jar,jcseg-elasticsearch-{version}.jar到{ES_HOME}/plugins/analysis-jcseg目录下(自己建立该文件夹,如果不存在)。
- 拷贝一份jcseg.properties到{ES_HOME}/config/jcseg目录下(自己建立该文件夹,如果不存在)。
- 配置好jcseg.properties,尤其是配置lexicon.path指向正确的词库(或者将jcseg目录下的lexicon文件夹拷贝到{ES_HOME}/plugins/jcseg目录下)。
- 参考下载的源码中的 jcseg-elasticsearch 项目下的 config/elasticsearch.yml 配置文件,将对应的配置加到{ES_HOME}/config/elasticsearch.yml中去。
- 配置elasticsearch.yml或者mapping来使用 Jcseg分词插件(或者在query中指定)。
elasticsearch.version >= 2.x
- 下载最新版本的 Jcseg源码。
- 使用maven或者ant编译打包得到 Jcseg的系列jar包(建议使用maven,ant需要自己下载对应的依赖包)。
- 拷贝jcseg-analyzer-{version}.jar,jcseg-core-{version}.jar,jcseg-elasticsearch-{version}.jar到{ES_HOME}/plugins/jcseg目录下(自己建立该文件夹,如果不存在)。
- 拷贝一份jcseg.properties到{ES_HOME}/plugins/jcseg目录下(自己建立该文件夹,如果不存在)。
- 拷贝一份jcseg-elasticsearch/plugin/plugin-descriptor.properties到{ES_HOME}/plugins/jcseg目录下(自己建立该文件夹,如果不存在)。
- 配置好jcseg.properties,尤其是配置lexicon.path指向正确的词库(或者将jcseg目录下的lexicon文件夹拷贝到{ES_HOME}/plugins/jcseg目录下)。
- 参考下载的源码中的 jcseg-elasticsearch 项目下的 config/elasticsearch.yml 配置文件,将对应的配置加到{ES_HOME}/config/elasticsearch.yml中去。
- 配置elasticsearch.yml或者mapping来使用 Jcseg分词插件(或者在query中指定)。
elasticsearch.version >= 5.1.1
- 下载最新版本的 Jcseg源码。
- 使用maven或者ant编译打包得到 Jcseg的系列jar包(建议使用maven,ant需要自己下载对应的依赖包)。
- 拷贝jcseg-analyzer-{version}.jar,jcseg-core-{version}.jar,jcseg-elasticsearch-{version}.jar到{ES_HOME}/plugins/jcseg目录下(自己建立该文件夹,如果不存在)。
- 拷贝一份jcseg.properties到{ES_HOME}/plugins/jcseg目录下(自己建立该文件夹,如果不存在)。
- 拷贝一份jcseg-elasticsearch/plugin/plugin-descriptor.properties到{ES_HOME}/plugins/jcseg目录下(自己建立该文件夹,如果不存在)。
- 配置好jcseg.properties,尤其是配置lexicon.path指向正确的词库(或者将jcseg目录下的lexicon文件夹拷贝到{ES_HOME}/plugins/jcseg目录下)。
- mapping指定来使用 Jcseg分词插件(或者在query中指定)。
可选的analyzer名字:
jcseg :
对应
Jcseg
的检索模式切分算法
jcseg_complex :
对应
Jcseg
的复杂模式切分算法
jcseg_simple :
对应
Jcseg
的简易切分算法
jcseg_detect :
对应
Jcseg
的检测模式切分算法
jcseg_search :
对应
Jcseg
的检索模式切分算法
jcseg_nlp :
对应
Jcseg
的
NLP
模式切分算法
jcseg_delimiter :
对应
Jcseg
的分隔符模式切分算法
配置测试地址:
http://localhost:9200/_analyze?analyzer=jcseg_search&text=
一百美元等于多少人民币
对应测试结果:
- jcseg_complex
- jcseg_simple
- jcseg_detect
- jcseg_search
- jcseg_nlp
- jcseg_delimiter
- GET _analyze?pretty
- {
- "analyzer": "jcseg_complex",
- "text": "中达广场浦发银行信用卡中心"
- }
- {
- "tokens": [
- {
- "token": "中",
- "start_offset": 0,
- "end_offset": 1,
- "type": "word",
- "position": 0
- },
- {
- "token": "达",
- "start_offset": 1,
- "end_offset": 2,
- "type": "word",
- "position": 1
- },
- {
- "token": "广场",
- "start_offset": 2,
- "end_offset": 4,
- "type": "word",
- "position": 2
- },
- {
- "token": "浦",
- "start_offset": 4,
- "end_offset": 5,
- "type": "word",
- "position": 3
- },
- {
- "token": "发",
- "start_offset": 5,
- "end_offset": 6,
- "type": "word",
- "position": 4
- },
- {
- "token": "银行",
- "start_offset": 6,
- "end_offset": 8,
- "type": "word",
- "position": 5
- },
- {
- "token": "信用卡",
- "start_offset": 8,
- "end_offset": 11,
- "type": "word",
- "position": 6
- },
- {
- "token": "中心",
- "start_offset": 11,
- "end_offset": 13,
- "type": "word",
- "position": 7
- }
- ]
- }
- GET _analyze?pretty
- {
- "analyzer": "jcseg_simple",
- "text": "中达广场浦发银行信用卡中心"
- }
- {
- "tokens": [
- {
- "token": "中",
- "start_offset": 0,
- "end_offset": 1,
- "type": "word",
- "position": 0
- },
- {
- "token": "达",
- "start_offset": 1,
- "end_offset": 2,
- "type": "word",
- "position": 1
- },
- {
- "token": "广场",
- "start_offset": 2,
- "end_offset": 4,
- "type": "word",
- "position": 2
- },
- {
- "token": "浦",
- "start_offset": 4,
- "end_offset": 5,
- "type": "word",
- "position": 3
- },
- {
- "token": "发",
- "start_offset": 5,
- "end_offset": 6,
- "type": "word",
- "position": 4
- },
- {
- "token": "银行",
- "start_offset": 6,
- "end_offset": 8,
- "type": "word",
- "position": 5
- },
- {
- "token": "信用卡",
- "start_offset": 8,
- "end_offset": 11,
- "type": "word",
- "position": 6
- },
- {
- "token": "中心",
- "start_offset": 11,
- "end_offset": 13,
- "type": "word",
- "position": 7
- }
- ]
- }
- GET _analyze?pretty
- {
- "analyzer": "jcseg_detect",
- "text": "中达广场浦发银行信用卡中心"
- }
- {
- "tokens": [
- {
- "token": "中",
- "start_offset": 0,
- "end_offset": 1,
- "type": "word",
- "position": 0
- },
- {
- "token": "达",
- "start_offset": 1,
- "end_offset": 2,
- "type": "word",
- "position": 1
- },
- {
- "token": "广场",
- "start_offset": 2,
- "end_offset": 4,
- "type": "word",
- "position": 2
- },
- {
- "token": "浦",
- "start_offset": 4,
- "end_offset": 5,
- "type": "word",
- "position": 3
- },
- {
- "token": "发",
- "start_offset": 5,
- "end_offset": 6,
- "type": "word",
- "position": 4
- },
- {
- "token": "银行",
- "start_offset": 6,
- "end_offset": 8,
- "type": "word",
- "position": 5
- },
- {
- "token": "信用卡",
- "start_offset": 8,
- "end_offset": 11,
- "type": "word",
- "position": 6
- },
- {
- "token": "中心",
- "start_offset": 11,
- "end_offset": 13,
- "type": "word",
- "position": 7
- }
- ]
- }
- GET _analyze?pretty
- {
- "analyzer": "jcseg_search",
- "text": "中达广场浦发银行信用卡中心"
- }
- {
- "tokens": [
- {
- "token": "中",
- "start_offset": 0,
- "end_offset": 1,
- "type": "word",
- "position": 0
- },
- {
- "token": "达",
- "start_offset": 1,
- "end_offset": 2,
- "type": "word",
- "position": 1
- },
- {
- "token": "广",
- "start_offset": 2,
- "end_offset": 3,
- "type": "word",
- "position": 2
- },
- {
- "token": "广场",
- "start_offset": 2,
- "end_offset": 4,
- "type": "word",
- "position": 3
- },
- {
- "token": "场",
- "start_offset": 3,
- "end_offset": 4,
- "type": "word",
- "position": 4
- },
- {
- "token": "浦",
- "start_offset": 4,
- "end_offset": 5,
- "type": "word",
- "position": 5
- },
- {
- "token": "发",
- "start_offset": 5,
- "end_offset": 6,
- "type": "word",
- "position": 6
- },
- {
- "token": "银",
- "start_offset": 6,
- "end_offset": 7,
- "type": "word",
- "position": 7
- },
- {
- "token": "银行",
- "start_offset": 6,
- "end_offset": 8,
- "type": "word",
- "position": 8
- },
- {
- "token": "行",
- "start_offset": 7,
- "end_offset": 8,
- "type": "word",
- "position": 9
- },
- {
- "token": "信",
- "start_offset": 8,
- "end_offset": 9,
- "type": "word",
- "position": 10
- },
- {
- "token": "信用",
- "start_offset": 8,
- "end_offset": 10,
- "type": "word",
- "position": 11
- },
- {
- "token": "信用卡",
- "start_offset": 8,
- "end_offset": 11,
- "type": "word",
- "position": 12
- },
- {
- "token": "用",
- "start_offset": 9,
- "end_offset": 10,
- "type": "word",
- "position": 13
- },
- {
- "token": "卡",
- "start_offset": 10,
- "end_offset": 11,
- "type": "word",
- "position": 14
- },
- {
- "token": "中",
- "start_offset": 11,
- "end_offset": 12,
- "type": "word",
- "position": 15
- },
- {
- "token": "中心",
- "start_offset": 11,
- "end_offset": 13,
- "type": "word",
- "position": 16
- },
- {
- "token": "心",
- "start_offset": 12,
- "end_offset": 13,
- "type": "word",
- "position": 17
- }
- ]
- }
- GET _analyze?pretty
- {
- "analyzer": "jcseg_nlp",
- "text": "中达广场浦发银行信用卡中心"
- }
- {
- "tokens": [
- {
- "token": "中",
- "start_offset": 0,
- "end_offset": 1,
- "type": "word",
- "position": 0
- },
- {
- "token": "达",
- "start_offset": 1,
- "end_offset": 2,
- "type": "word",
- "position": 1
- },
- {
- "token": "广场",
- "start_offset": 2,
- "end_offset": 4,
- "type": "word",
- "position": 2
- },
- {
- "token": "浦",
- "start_offset": 4,
- "end_offset": 5,
- "type": "word",
- "position": 3
- },
- {
- "token": "发",
- "start_offset": 5,
- "end_offset": 6,
- "type": "word",
- "position": 4
- },
- {
- "token": "银行",
- "start_offset": 6,
- "end_offset": 8,
- "type": "word",
- "position": 5
- },
- {
- "token": "信用卡",
- "start_offset": 8,
- "end_offset": 11,
- "type": "word",
- "position": 6
- },
- {
- "token": "中心",
- "start_offset": 11,
- "end_offset": 13,
- "type": "word",
- "position": 7
- }
- ]
- }
- GET _analyze?pretty
- {
- "analyzer": "jcseg_delimiter",
- "text": "中达广场浦发银行信用卡中心"
- }
- {
- "tokens": [
- {
- "token": "中达广场浦发银行信用卡中心",
- "start_offset": 0,
- "end_offset": 13,
- "type": "word",
- "position": 0
- }
- ]
- }
也可以直接使用集成了jcseg的elasticsearch运行包:elasticsearch-jcseg,开封就可以使用。
Jcseg分词服务器:
jcseg-server模块嵌入了jetty,实现了一个绝对高性能的服务器,给jcseg的全部Api功能都加上了restful接口,并且标准化了api结果的json输出格式,各大语言直接使用http客户端调用即可。
编译jcseg:
- maven编译jcseg,得到jcseg-server-{version}.jar, maven已经将依赖的jar包一起编译进去了,如果是ant编译运行时请将依赖包载入。
- 启动jcseg server:
- # 在最后传入jcseg-server.properties配置文件的路径
- java -jar jcseg-server-{version}.jar ./jcseg-server.properties
jcseg-server.properties:
懒得翻译了,默默的多念几遍就会了!
# jcseg server configuration file with standard json syntax
{
# jcseg server configuration
"server_config": {
# server port
"port": 1990,
# default conmunication charset
"charset": "utf-8",
# http idle timeout in ms
"http_connection_idle_timeout": 60000,
# jetty maximum thread pool size
"max_thread_pool_size": 200,
# thread idle timeout in ms
"thread_idle_timeout": 30000,
# http output buffer size
"http_output_buffer_size": 32768,
# request header size
"http_request_header_size": 8192,
# response header size
"http_response_header_size": 8192
},
# global setting for jcseg, yet another copy of the old
# configuration file jcseg.properties
"jcseg_global_config": {
# maximum match length. (5-7)
"jcseg_maxlen": 7,
# recognized the chinese name.
# (true to open and false to close it)
"jcseg_icnname": true,
# maximum length for pair punctuation text.
# set it to 0 to close this function
"jcseg_pptmaxlen": 7,
# maximum length for chinese last name andron.
"jcseg_cnmaxlnadron": 1,
# Whether to clear the stopwords.
# (set true to clear stopwords and false to close it)
"jcseg_clearstopword": false,
# Whether to convert the chinese numeric to arabic number.
# (set to true open it and false to close it) like '\u4E09\u4E07' to 30000.
"jcseg_cnnumtoarabic": true,
# Whether to convert the chinese fraction to arabic fraction.
# @Note: for lucene,solr,elasticsearch eg.. close it.
"jcseg_cnfratoarabic": false,
# Whether to keep the unrecognized word.
# (set true to keep unrecognized word and false to clear it)
"jcseg_keepunregword": true,
# Whether to start the secondary segmentation for the complex english words.
"jcseg_ensencondseg": true,
# min length of the secondary simple token.
# (better larger than 1)
"jcseg_stokenminlen": 2,
#thrshold for chinese name recognize.
# better not change it before you know what you are doing.
"jcseg_nsthreshold": 1000000,
#The punctuations that will be keep in an token.
# (Not the end of the token).
"jcseg_keeppunctuations": "@#%.&+"
},
# dictionary instance setting.
# add yours here with standard json syntax
"jcseg_dict": {
"master": {
"path": [
"{jar.dir}/lexicon"
# absolute path here
#"/java/JavaSE/jcseg/lexicon"
],
# Whether to load the part of speech of the words
"loadpos": true,
# Whether to load the pinyin of the words.
"loadpinyin": true,
# Whether to load the synoyms words of the words.
"loadsyn": true,
# whether to load the entity of the words.
"loadentity": true,
# Whether to load the modified lexicon file auto.
"autoload": true,
# Poll time for auto load. (in seconds)
"polltime": 300
}
# add more of yours here
# ,"name" : {
# "path": [
# "absolute jcseg standard lexicon path 1",
# "absolute jcseg standard lexicon path 2"
# ...
# ],
# "autoload": 0,
# "polltime": 300
# }
},
# JcsegTaskConfig instance setting.
# @Note:
# All the config instance here is extends from the global_setting above.
# do nothing will extends all the setting from global_setting
"jcseg_config": {
"master": {
# extends and Override the global setting
"jcseg_pptmaxlen": 0,
"jcseg_cnfratoarabic": true,
"jcseg_keepunregword": false
}
# this one is for keywords,keyphrase,sentence,summary extract
# @Note: do not delete this instance if u want jcseg to
# offset u extractor service
,"extractor": {
"jcseg_pptmaxlen": 0,
"jcseg_clearstopword": true,
"jcseg_cnnumtoarabic": false,
"jcseg_cnfratoarabic": false,
"jcseg_keepunregword": false,
"jcseg_ensencondseg": false
}
# well, this one is for NLP only
,"nlp" : {
"jcseg_ensencondseg": false,
"jcseg_cnfratoarabic": true,
"jcseg_cnnumtoarabic": true
}
# add more of yours here
# ,"name": {
# ...
# }
},
# jcseg tokenizer instance setting.
# Your could let the instance service for you by access:
# http://jcseg_server_host:port/tokenizer/instance_name
# instance_name is the name of instance you define here.
"jcseg_tokenizer": {
"master": {
# jcseg tokenizer algorithm, could be:
# 1: SIMPLE_MODE
# 2: COMPLEX_MODE
# 3: DETECT_MODE
# 4: SEARCH_MODE
# 5: DELIMITER_MODE
# 6: NLP_MODE
# see org.lionsoul.jcseg.tokenizer.core.JcsegTaskConfig for more info
"algorithm": 2,
# dictionary instance name
# choose one of your defines above in the dict scope
"dict": "master",
# JcsegTaskConfig instance name
# choose one of your defines above in the config scope
"config": "master"
}
# this tokenizer instance is for extractor service
# do not delete it if you want jcseg to offset you extractor service
,"extractor": {
"algorithm": 2,
"dict": "master",
"config": "extractor"
}
# this tokenizer instance of for NLP analysis
# keep it for you NLP project
,"nlp" : {
"algorithm": 6,
"dict": "master",
"config": "nlp"
}
# add more of your here
# ,"name": {
# ...
# }
}
}
restful api:
1. 关键字提取:
api地址:http://jcseg_server_host:port/extractor/keywords?text=&number=&autoFilter=true|false
api参数:
- text: post或者get过来的文档文本
- number: 要提取的关键词个数
- autoFilter: 是否自动过滤掉低分数关键字
api返回:
{
//api
错误代号,
0
正常,
1
参数错误
, -1
内部错误
"code": 0,
//api
返回数据
"data": {
//
关键字数组
"keywords": [],
//
操作耗时
"took": 0.001
}
}
更多配置请参考:org.lionsoul.jcseg.server.controller.KeywordsController
2. 关键短语提取:
api地址:http://jcseg_server_host:port/extractor/keyphrase?text=&number=
api参数:
- text: post或者get过来的文档文本
- number: 要提取的关键短语个数
api返回:
{
"code": 0,
"data": {
"took": 0.0277,
//
关键短语数组
"keyphrase": []
}
}
更多配置请参考:org.lionsoul.jcseg.server.controller.KeyphraseController
3. 关键句子提取:
api地址:http://jcseg_server_host:port/extractor/sentence?text=&number=
api参数:
- text: post或者get过来的文档文本
- number: 要提取的关键句子个数
api返回:
{
"code": 0,
"data": {
"took": 0.0277,
//
关键句子数组
"sentence": []
}
}
更多配置请参考:org.lionsoul.jcseg.server.controller.SentenceController
4. 文章摘要提取:
api地址:http://jcseg_server_host:port/extractor/summary?text=&length=
api参数:
- text: post或者get过来的文档文本
- length: 要提取的摘要的长度
api返回:
{
"code": 0,
"data": {
"took": 0.0277,
//
文章摘要
"summary": ""
}
}
更多配置请参考:org.lionsoul.jcseg.server.controller.SummaryController
5. 文章自动分词:
api地址:http://jcseg_server_host:port/tokenizer/tokenizer_instance?text=&ret_pinyin=&ret_pos=...
api参数:
- tokenizer_instance: 表示在jcseg-server.properties中定义的分词实例名称
- text: post或者get过来的文章文本
- ret_pinyin: 是否在分词结果中返回词条拼音(2.0.1版本后已经取消)
- ret_pos: 是否在分词结果中返回词条词性(2.0.1版本后已经取消)
api返回:
{
"code": 0,
"data": {
"took": 0.00885,
//
词条对象数组
"list": [
{
word: "
哆啦
a
梦
", //
词条内容
position: 0, //
词条在原文中的索引位置
length: 4, //
词条的词个数(非字节数)
pinyin: "duo la a meng", //
词条的拼音
pos: "nz", //
词条的词性标注
entity: null //
词条的实体标注
}
]
}
}
更多配置请参考:org.lionsoul.jcseg.server.controller.TokenizerController
Jcseg二次开发:
1. Jcseg中文分词Api:
(1). 创建JcsegTaskConfig配置对象:
jcseg.properties查找步骤:
- 1,寻找jcseg-core-{version}.jar目录下的jcseg.properties
- 2,如果没找到继续寻找classpath下的jcseg.properties(默认已经打包了)
- 3,如果没找到继续寻找user home下的jcseg.properties(除非把classpath下的jcseg.properties删除了,要不然不会到这)
所以,默认情况下可以在jcseg-core-{version}.jar同目录下来放一份jcseg.properties来自定义配置。
JcsegTaskConfig构造方法如下:
- JcsegTaskConfig(); //不做任何配置文件查找来初始化
- JcsegTaskConfig(boolean autoLoad); //autoLoad=true会自动查找配置来初始化
- JcsegTaskConfig(java.lang.String proFile); //从指定的配置文件中初始化配置对象
- JcsegTaskConfig(InputStream is); //从指定的输入流中初始化配置对象
demo代码:
- //创建JcsegTaskConfig使用默认配置,不做任何配置文件查找
- JcsegTaskConfig config = new JcsegTaskConfig();
- //该方法会自动按照上述“jcseg.properties查找步骤”来寻找jcseg.properties并且初始化:
- JcsegTaskConfig config = new JcsegTaskConfig(true);
- //依据给定的jcseg.properties文件创建并且初始化JcsegTaskConfig
- JcsegTaskConfig config = new JcsegTaskConfig("absolute or relative jcseg.properties path");
- //调用JcsegTaskConfig#load(String proFile)方法来从指定配置文件中初始化配置选项
- config.load("absolute or relative jcseg.properties path");
(2). 创建ADictionary词库对象:
ADictionary构造方法如下:
- ADictionary(JcsegTaskConfig config, java.lang.Boolean sync)
- //config:上述的JcsegTaskConfig实例
- //sync: 是否创建线程安全词库,如果你需要在运行时操作词库对象则指定true,
- // 如果jcseg.properties中autoload=1则会自动创建同步词库
demo代码:
- //Jcseg提供org.lionsoul.jcseg.tokenzier.core.DictionaryFactory来方便词库的创建与往后的兼容
- //通常可以通过
- // DictionaryFactory#createDefaultDictionary(JcsegTaskConfig)
- // DictionaryFactory.createSingletonDictionary(JcsegTaskConfig)
- //两方法来创建词库对象并且加载词库文件,建议使用createSingletonDictionary来创建单例词库
- //config为上面创建的JcsegTaskConfig对象.
- //如果给定的JcsegTaskConfig里面的词库路径信息正确
- //ADictionary会依据config里面的词库信息加载全部有效的词库;
- //并且该方法会依据config.isAutoload()来决定词库的同步性还是非同步性,
- //config.isAutoload()为true就创建同步词库, 反之就创建非同步词库,
- //config.isAutoload()对应jcseg.properties中的lexicon.autoload;
- //如果config.getLexiconPath() = null,DictionaryFactory会自动加载classpath下的词库
- //如果不想让其自动加载lexicon下的词库
- //可以调用:DictionaryFactory.createSingletonDictionary(config, false)创建ADictionary即可;
- ADictionary dic = DictionaryFactory.createSingletonDictionary(config);
- //创建一个非同步的按照config.lexPath配置加载词库的ADictioanry.
- ADictionary dic = DictionaryFactory.createDefaultDictionary(config, false);
- //创建一个同步的按照config.lexPath加载词库的ADictioanry.
- ADictionary dic = DictionaryFactory.createDefaultDictionary(config, true);
- //依据 config.isAutoload()来决定同步性,默认按照config.lexPath来加载词库的ADictionary
- ADictionary dic = DictionaryFactory.createDefaultDictionary(config, config.isAutoload());
- //指定ADictionary加载给定目录下的所有词库文件的词条.
- //config.getLexiconPath为词库文件存放有效目录数组.
- for ( String path : config.getLexiconPath() ) {
- dic.loadDirectory(path);
- }
- //指定ADictionary加载给定词库文件的词条.
- dic.load("/java/lex-main.lex");
- dic.load(new File("/java/lex-main.lex"));
- //指定ADictionary加载给定输入流的词条
- dic.load(new FileInputStream("/java/lex-main.lex"));
- //阅读下面的“如果自定义使用词库”来获取更多信息
(3). 创建ISegment分词实例:
ISegment接口核心分词方法:
- public IWord next();
- //返回下一个切分的词条
demo代码:
- //依据给定的ADictionary和JcsegTaskConfig来创建ISegment
- //通常使用SegmentFactory#createJcseg来创建ISegment对象
- //将config和dic组成一个Object数组给SegmentFactory.createJcseg方法
- //JcsegTaskConfig.COMPLEX_MODE表示创建ComplexSeg复杂ISegment分词对象
- //JcsegTaskConfig.SIMPLE_MODE表示创建SimpleSeg简易Isegmengt分词对象.
- //JcsegTaskConfig.DETECT_MODE表示创建DetectSeg Isegmengt分词对象.
- //JcsegTaskConfig.SEARCH_MODE表示创建SearchSeg Isegmengt分词对象.
- //JcsegTaskConfig.DELIMITER_MODE表示创建DelimiterSeg Isegmengt分词对象.
- //JcsegTaskConfig.NLP_MODE表示创建NLPSeg Isegmengt分词对象.
- ISegment seg = SegmentFactory.createJcseg(
- JcsegTaskConfig.COMPLEX_MODE,
- new Object[]{config, dic}
- );
- //设置要分词的内容
- String str = "研究生命起源。";
- seg.reset(new StringReader(str));
- //获取分词结果
- IWord word = null;
- while ( (word = seg.next()) != null ) {
- System.out.println(word.getValue());
- }
(4). 一个完整的例子:
- //创建JcsegTaskConfig分词配置实例,自动查找加载jcseg.properties配置项来初始化
- JcsegTaskConfig config = new JcsegTaskConfig(true);
- //创建默认单例词库实现,并且按照config配置加载词库
- ADictionary dic = DictionaryFactory.createSingletonDictionary(config);
- //依据给定的ADictionary和JcsegTaskConfig来创建ISegment
- //为了Api往后兼容,建议使用SegmentFactory来创建ISegment对象
- ISegment seg = SegmentFactory.createJcseg(
- JcsegTaskConfig.COMPLEX_MODE,
- new Object[]{new StringReader(str), config, dic}
- );
- //备注:以下代码可以反复调用,seg为非线程安全
- //设置要被分词的文本
- String str = "研究生命起源。";
- seg.reset(new StringReader(str));
- //获取分词结果
- IWord word = null;
- while ( (word = seg.next()) != null ) {
- System.out.println(word.getValue());
- }
(5). 如何自定义使用词库:
从1.9.9版本开始,Jcseg已经默认将jcseg.properties和lexicon全部词库打包进了jcseg-core-{version}.jar中,如果是通过JcsegTaskConfig(true)构造的JcsegTaskConfig或者调用了JcsegTaskConfig#autoLoad()方法,在找不到自定义配置文件情况下Jcseg会自动的加载classpath中的配置文件,如果config.getLexiconPath() = null DictionaryFactory默认会自动加载classpath下的词库。
- 1),通过JcsegTaskConfig设置词库路径:
- //1, 默认构造JcsegTaskConfig,不做任何配置文件寻找来初始化
- JcsegTaskConfig config = new JcsegTaskConfig();
- //2, 设置自定义词库路径集合
- config.setLexiconPath(new String[]{
- "relative or absolute lexicon path1",
- "relative or absolute lexicon path2"
- //add more here
- });
- //3, 通过config构造词库并且DictionaryFactory会按照上述设置的词库路径自动加载全部词库
- ADictionary dic = DictionaryFactory.createSingletonDictionary(config);
- 2),通过ADictionary手动加载词库:
- //1, 构造默认的JcsegTaskConfig,不做任何配置文件寻找来初始化
- JcsegTaskConfig config = new JcsegTaskConfig();
- //2, 构造ADictionary词库对象
- //注意第二个参数为false,阻止DictionaryFactory自动检测config.getLexiconPath()来加载词库
- ADictionary dic = DictionaryFactory.createSingletonDictionary(config, false);
- //3, 手动加载词库
- dic.load(new File("absolute or relative lexicon file path")); //加载指定词库文件下全部词条
- dic.load("absolute or relative lexicon file path"); //加载指定词库文件下全部词条
- dic.load(new FileInputStream("absolute or relative lexicon file path")); //加载指定InputStream输入流下的全部词条
- dic.loadDirectory("absolute or relative lexicon directory"); //加载指定目录下的全部词库文件的全部词条
- dic.loadClassPath(); //加载classpath路径下的全部词库文件的全部词条(默认路径/lexicon)
2. Jcseg关键字提取Api:
- 1),TextRankKeywordsExtractor构造方法:
- TextRankKeywordsExtractor(ISegment seg);
- //seg: Jcseg ISegment分词对象
- 2),demo代码:
- //1, 创建Jcseg ISegment分词对象
- JcsegTaskConfig config = new JcsegTaskConfig(true);
- config.setClearStopwords(true); //设置过滤停止词
- config.setAppendCJKSyn(false); //设置关闭同义词追加
- config.setKeepUnregWords(false); //设置去除不识别的词条
- ADictionary dic = DictionaryFactory.createSingletonDictionary(config);
- ISegment seg = SegmentFactory.createJcseg(
- JcsegTaskConfig.COMPLEX_MODE,
- new Object[]{config, dic}
- );
- //2, 构建TextRankKeywordsExtractor关键字提取器
- TextRankKeywordsExtractor extractor = new TextRankKeywordsExtractor(seg);
- extractor.setMaxIterateNum(100); //设置pagerank算法最大迭代次数,非必须,使用默认即可
- extractor.setWindowSize(5); //设置textRank计算窗口大小,非必须,使用默认即可
- extractor.setKeywordsNum(10); //设置最大返回的关键词个数,默认为10
- //3, 从一个输入reader输入流中获取关键字
- String str = "现有的分词算法可分为三大类:基于字符串匹配的分词方法、基于理解的分词方法和基于统计的分词方法。按照是否与词性标注过程相结合,又可以分为单纯分词方法和分词与标注相结合的一体化方法。";
- List<String> keywords = extractor.getKeywords(new StringReader(str));
- //4, output:
- //"分词","方法","分为","标注","相结合","字符串","匹配","过程","大类","单纯"
- 3),测试源码参考:org.lionsoul.jcseg.test.KeywordsExtractorTest源码
3. Jcseg自动摘要/关键句子提取Api:
- 1),TextRankSummaryExtractor构造方法:
- TextRankSummaryExtractor(ISegment seg, SentenceSeg sentenceSeg);
- //seg: Jcseg ISegment分词对象
- //sentenceSeg: Jcseg SentenceSeg句子切分对象
- 2),demo代码:
- //1, 创建Jcseg ISegment分词对象
- JcsegTaskConfig config = new JcsegTaskConfig(true);
- config.setClearStopwords(true); //设置过滤停止词
- config.setAppendCJKSyn(false); //设置关闭同义词追加
- config.setKeepUnregWords(false); //设置去除不识别的词条
- ADictionary dic = DictionaryFactory.createSingletonDictionary(config);
- ISegment seg = SegmentFactory.createJcseg(
- JcsegTaskConfig.COMPLEX_MODE,
- new Object[]{config, dic}
- );
- //2, 构造TextRankSummaryExtractor自动摘要提取对象
- SummaryExtractor extractor = new TextRankSummaryExtractor(seg, new SentenceSeg());
- //3, 从一个Reader输入流中获取length长度的摘要
- String str = "Jcseg是基于mmseg算法的一个轻量级开源中文分词器,同时集成了关键字提取,关键短语提取,关键句子提取和文章自动摘要等功能,并且提供了最新版本的lucene,%20solr,%20elasticsearch的分词接口。Jcseg自带了一个%20jcseg.properties文件用于快速配置而得到适合不同场合的分词应用。例如:最大匹配词长,是否开启中文人名识别,是否追加拼音,是否追加同义词等!";
- String summary = extractor.getSummary(new StringReader(str), 64);
- //4, output:
- //Jcseg是基于mmseg算法的一个轻量级开源中文分词器,同时集成了关键字提取,关键短语提取,关键句子提取和文章自动摘要等功能,并且提供了最新版本的lucene, solr, elasticsearch的分词接口。
- //-----------------------------------------------------------------
- //5, 从一个Reader输入流中提取n个关键句子
- String str = "you source string here";
- extractor.setSentenceNum(6); //设置返回的关键句子个数
- List<String> keySentences = extractor.getKeySentence(new StringReader(str));
- 3),测试源码参考:org.lionsoul.jcseg.test.SummaryExtractorTest源码
4. Jcseg关键短语提取Api:
- 1),TextRankKeyphraseExtractor构造方法:
- TextRankKeyphraseExtractor(ISegment seg);
- //seg: Jcseg ISegment分词对象
- 2),demo代码:
- //1, 创建Jcseg ISegment分词对象
- JcsegTaskConfig config = new JcsegTaskConfig(true);
- config.setClearStopwords(false); //设置不过滤停止词
- config.setAppendCJKSyn(false); //设置关闭同义词追加
- config.setKeepUnregWords(false); //设置去除不识别的词条
- config.setEnSecondSeg(false); //关闭英文自动二次切分
- ADictionary dic = DictionaryFactory.createSingletonDictionary(config);
- ISegment seg = SegmentFactory.createJcseg(
- JcsegTaskConfig.COMPLEX_MODE,
- new Object[]{config, dic}
- );
- //2, 构建TextRankKeyphraseExtractor关键短语提取器
- TextRankKeyphraseExtractor extractor = new TextRankKeyphraseExtractor(seg);
- extractor.setMaxIterateNum(100); //设置pagerank算法最大迭代词库,非必须,使用默认即可
- extractor.setWindowSize(5); //设置textRank窗口大小,非必须,使用默认即可
- extractor.setKeywordsNum(15); //设置最大返回的关键词个数,默认为10
- extractor.setMaxWordsNum(4); //设置最大短语词长,默认为5
- //3, 从一个输入reader输入流中获取短语
- String str = "支持向量机广泛应用于文本挖掘,例如,基于支持向量机的文本自动分类技术研究一文中很详细的介绍支持向量机的算法细节,文本自动分类是文本挖掘技术中的一种!";
- List<String> keyphrases = extractor.getKeyphrase(new StringReader(str));
- //4, output:
- //支持向量机, 自动分类
- 3),测试源码参考:org.lionsoul.jcseg.test.KeyphraseExtractorTest源码
相关附录
1,Jcseg的词性对照:
名词n、时间词t、处所词s、方位词f、数词m、量词q、区别词b、代词r、动词v、形容词a、状态词z、副词d、介词p、连词c、助词u、语气词y、叹词e、拟声词o、成语i、习惯用语l、简称j、前接成分h、后接成分k、语素g、非语素字x、标点符号w)外,从语料库应用的角度,增加了专有名词(人名nr、地名ns、机构名称nt、其他专有名词nz)。
2,Jcseg同义词管理:
- 01),统一的词库分类: 从2.2.0版本开始jcseg将同义词统一成了一个单独的类别-CJK_SYN,你可以将你的同义词定义直接追加到现有的同义词词库vendors/lexicons/lex-synonyms.lex中,也可以新建一个独立的词库,然后在首行增加CJK_SYN定义,将该词库归类为同义词词库,然后按照下面介绍的格式逐行或者分行增加同义词的定义。
- 02),统一的同义词格式:
格式:
词根
,
同义词
1[/
可选拼音
],
同义词
2[/
可选拼音
],...,
同义词
n[/
可选拼音
]
例如:
单行定义:
研究
,
研讨
,
钻研
,
研磨
/yan mo,
研发
多行定义:
(
只要词根一样,定义的全部同义词就都属于同一个集合
)
中央一台
,
央视一台
,
中央第一台
中央一台
,
中央第一频道
,
央视第一台
,
央视第一频道
- 03),格式和要求说明:
1
,第一个词为同义词的根词条,这个词条必须是
CJK_WORD
词库中必须存在的词条,如果不存在,这条同义词定义会被忽略。
2
,根词会作为不同行同义词集合的区别,如果两行同义词定义的根词一样,会自动合并成一个同义词集合。
3
,
jcseg
中使用
org.lionsoul.jcseg.tokenizer.core.SynonymsEntry
来管理同义词集合,每个
IWord
词条对象都会有一个
SynonymsEntry
属性来指向自己的同义词集合。
4
,
SynonymsEntry.rootWord
存储了同义词集合的根词,同义词的合并建议统一替换成根词。
5
,除去根词外的其他同义词,
jcseg
会自动检测并且创建相关的
IWord
词条对象并且将其加入
CJK_WORD
词库中,也就是说其他同义词不一定要是
CJK_WORD
词库中存在的词条。
6
,其他同义词会自动继承词根的词性和实体定义,也会继承
CJK_WORD
词库中该词条的拼音定义(如果存在该词),也可以在词条后面通过增加
"/
拼音
"
来单独定义拼音。
7
,同一同义词定义的集合中的全部
IWord
词条都指向同一个
SynonymsEntry
对象,也就是同义词之间会自动相互引用。
启用jcseg分词器
1. 将jcseg相关jar包和文件拷贝到es目录
拷贝到{ESHOME}/ plugins/jcseg目录下,重启es
2. 设置index模板
Kibana上操作,先获取需要修改的mapping
GET _template/logstash
拷贝当前获取的mapping,并添加指定分词器为jcseg_search
- PUT _template/logstash
- {
- "order": 0,
- "version": 50001,
- "template": "logstash-*",
- "settings": {
- "index": {
- "refresh_interval": "5s"
- }
- },
- "mappings": {
- "_default_": {
- "dynamic_templates": [
- {
- "message_field": {
- "path_match": "message",
- "mapping": {
- "norms": false,
- "analyzer": "jcseg_search",
- "search_analyzer": "jcseg_search",
- "type": "text"
- },
- "match_mapping_type": "string"
- }
- },
- {
- "string_fields": {
- "mapping": {
- "norms": false,
- "analyzer": "jcseg_search",
- "search_analyzer": "jcseg_search",
- "type": "text",
- "fields": {
- "keyword": {
- "type": "keyword"
- }
- }
- },
- "match_mapping_type": "string",
- "match": "*"
- }
- }
- ],
- "_all": {
- "norms": false,
- "analyzer": "jcseg_search",
- "search_analyzer": "jcseg_search",
- "enabled": true
- },
- "properties": {
- "@timestamp": {
- "include_in_all": false,
- "type": "date"
- },
- "geoip": {
- "dynamic": true,
- "properties": {
- "ip": {
- "type": "ip"
- },
- "latitude": {
- "type": "half_float"
- },
- "location": {
- "type": "geo_point"
- },
- "longitude": {
- "type": "half_float"
- }
- }
- },
- "@version": {
- "include_in_all": false,
- "type": "keyword"
- }
- }
- }
- },
- "aliases": {}
- }
- 此修改只针对新生成的索引有效
elasticsearch分词器Jcseg安装手册的更多相关文章
- elasticsearch中文分词器ik-analyzer安装
前面我们介绍了Centos安装elasticsearch 6.4.2 教程,elasticsearch内置的分词器对中文不友好,只会一个字一个字的分,无法形成词语,别急,已经有大拿把中文分词器做好了, ...
- ElasticSearch(六):IK分词器的安装与使用IK分词器创建索引
之前我们创建索引,查询数据,都是使用的默认的分词器,分词效果不太理想,会把text的字段分成一个一个汉字,然后搜索的时候也会把搜索的句子进行分词,所以这里就需要更加智能的分词器IK分词器了. 1. i ...
- elasticsearch插件安装之--中文分词器 ik 安装
/** * 系统环境: vm12 下的centos 7.2 * 当前安装版本: elasticsearch-2.4.0.tar.gz */ ElasticSearch中内置了许多分词器, standa ...
- 搜索引擎ElasticSearch系列(五): ElasticSearch2.4.4 IK中文分词器插件安装
一:IK分词器简介 IK Analyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包.从2006年12月推出1.0版开始, IKAnalyzer已经推出了4个大版本.最初,它是以开源 ...
- elasticsearch ik中文分词器的安装配置使用
安装步骤 https://github.com/medcl/elasticsearch-analysis-ik 以插件形式安装: [elsearch@localhost elasticsearch- ...
- elasticsearch分词插件的安装
IK简介 IK Analyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包.从2006年12月推出1.0版开始, IKAnalyzer已经推出了4个大版本.最初,它是以开源项目Luen ...
- Elasticsearch 分词器
无论是内置的分析器(analyzer),还是自定义的分析器(analyzer),都由三种构件块组成的:character filters , tokenizers , token filters. 内 ...
- 30.IK中文分词器的安装和简单使用
在之前我们学的都是英文,用的也是英文的standard分词器.从这一节开始,学习中文分词器.中国人基本上都是中文应用,很少是英文的,而standard分词器是没有办法对中文进行合理分词的,只是将每个中 ...
- IK分词器的安装与使用IK分词器创建索引
之前我们创建索引,查询数据,都是使用的默认的分词器,分词效果不太理想,会把text的字段分成一个一个汉字,然后搜索的时候也会把搜索的句子进行分词,所以这里就需要更加智能的分词器IK分词器了. 1. i ...
随机推荐
- 【转】globk中的卫星轨道约束
在globk中使用轨道随机参数很灵活,允许对每一期测量的每个卫星的每个轨道根数使用不同的马尔科夫约束.但是困难的是如何选择有效客观的约束级别.通常是选择不同的值进行实验以得到理想值.下面是三种不同的约 ...
- web移动端常见问题解决方案 (转)
总结:本文总结了web移动端的常见问题并附上解决方案,包括:Meta标签.获取滚动条的值.禁止选择文本.屏蔽阴影.css之border-box.css3多文本换行.Retina屏幕高清图片.html5 ...
- centos7+ansible自动化工具使用
一.基础介绍 ========================================================================================== 1. ...
- chrome disable-web-security 关闭安全策略 解决跨域
Chrome 跨域访问线上接口 时间:2016-04-21 作者:zhongxia 前后端分离之后,联调的时候就会出现问题,那就是Ajax跨域问题. 跨域问题的解决方案有很多种比如常规的 后端使用CR ...
- 布隆过滤器(Bloom Filter)详解
直观的说,bloom算法类似一个hash set,用来判断某个元素(key)是否在某个集合中.和一般的hash set不同的是,这个算法无需存储key的值,对于每个key,只需要k个比特位,每个存储一 ...
- C# Ioc ASP.NET MVC Dependency Injection
ASP.NET MVC Dependency Injection 同志们,非常快速的Ioc注册接口和注入Mvc Controller,步骤如下: 安装Unity.Mvc NuGet Package 在 ...
- MySQL Community Server 5.7安装详细步骤
mysql社区版安装配置步骤较繁琐,几经搜索之后才成功安装,此文将所有的安装步骤及安装过程中遇到的问题进行了总结 1. 下载MySQL社区版 最新版下载地址:https://dev.mysql ...
- JavaScript之父谈JavaScript
本文翻译自popularity,为了更好的阅读我把部分内容进行了增删改,如果你英语比较好,建议直接阅读原文,因为这篇文章是我通过google翻译再进行修改的. 貌似(根据一位精神导师的说法)JavaS ...
- Windows Server 2016-命令行Ntdsutil迁移FSMO角色
上章节我们介绍了有关图形化界面迁移FSMO角色,进行本章节之前我们首先回顾一下FSMO的五种操作主机角色:架构主机角色(Schema Master).域命名主机角色(Domain Naming Mas ...
- 网络编程之socketserver
网络编程之socketserver """ socketserver.py 中的5个基础类 +------------+ | BaseServer | +-------- ...