Elasticsearch篇:

Elasticsearch是一个采用java语言开发的,基于Lucene构造的开源,分布式的搜索引擎. 设计用于云计算中,能够达到实时搜索,稳定可靠. Elasticsearch的数据模型是JSON. 对于需要分布式需求的这是一个非常好的选择,部署简单,同网段内会自动组成集群服务无需配置。其集成数据库同步插件,不仅支持几乎实时的全文检索服务,还支持距离查询,提供类似类似百度地图离我最近查询。

官方主页:http://www.elasticsearch.org/

中文词库支持ik:https://github.com/medcl/elasticsearch-analysis-ik

mmseg :https://github.com/medcl/elasticsearch-analysis-mmseg

mysql实时自动数据到Elasticsearch 插件:https://github.com/jprante/elasticsearch-river-jdbc
中文支持版下载:经过作者吐血集成了ik中文分词器与mysql插件elasticsearch-river-jdbc,

下载地址:http://songwie.com/attached/lucene/elasticsearch-rtf.zip

spring 对java api 的集成:https://github.com/spring-projects/spring-data-elasticsearch

目前有好多的提供全文检索引擎服务的项目,选择了一个分布式的可以支持集群模式的使用,Elasticsearch无需部署即可使用,rtf集成版集成了ik中文词库,jdbc-rever等插件。

基础概念

Elasticsearch有几个核心概念。从一开始理解这些概念会对整个学习过程有莫大的帮助。
接近实时(NRT)
        Elasticsearch是一个接近实时的搜索平台。这意味着,从索引一个文档直到这个文档能够被搜索到有一个轻微的延迟(通常是1秒)。    
集群(cluster)
        一个集群就是由一个或多个节点组织在一起,它们共同持有你整个的数据,并一起提供索引和搜索功能。一个集群由一个唯一的名字标识,这个名字默认就是 “elasticsearch”。这个名字是重要的,因为一个节点只能通过指定某个集群的名字,来加入这个集群。在 产品环境中显式地设定这个名字是一个好 习惯,但是使用默认值来进行测试/开发也是不错的。     
节点(node)
        一个节点是你集群中的一个服务器,作为集群的一部分,它存储你的数据,参与集群的索引和搜索功能。和集群类似,一个节点也是由一个名字来标识的,默认情况 下,这个名字是一个随机的漫威漫画角色的名字,这个名字会在启动的时候赋予节点。这个名字 对于管理工作来说挺重要的,因为在这个管理过程中,你会去确定网 络中的哪些服务器对应于Elasticsearch集群中的哪些节点。     
        一个节点可以通过配置集群名称的方式来加入一个指定的集群。默认情况下,每个节点都会被安排加入到一个叫做“elasticsearch”的集群中,这意味着,如果你在你的网络中启动了若干个节点,并假定它们能够相互发现彼此,它们将会自动地形成并加入到一个叫做“elasticsearch”的集群中。    
        在一个集群里,只要你想,可以拥有任意多个节点。而且,如果当前你的网络中没有运行任何Elasticsearch节点,这时启动一个节点,会默认创建并加入一个叫做“elasticsearch”的集群。    
索引(index)    
        一个索引就是一个拥有几分相似特征的文档的集合。比如说,你可以有一个客户数据的索引,另一个产品目录的索引,还有一个订单数据的索引。一个索引由一个名 字来标识(必须全部是小写字母的),并且当我们要对对应于这个索引中的文档进行索引、搜索、更新和删除的时候,都要使用到这个名字。   
       在一个集群中,如果你想,可以定义任意多的索引。      
类型(type)
        在一个索引中,你可以定义一种或多种类型。一个类型是你的索引的一个逻辑上的分类/分区,其语义完全由你来定。通常,会为具有一组共同字段的文档定义一个 类型。比如说,我们假设你运营一个博客平台并且将你所有的数据存储到一个索引中。在这个索引中,你可以为用户数据定义一个类型,为博客数据定义另一个类 型,当然,也可以为评论数据定义另一个类型。  
文档(document)      
        一个文档是一个可被索引的基础信息单元。比如,你可以拥有某一个客户的文档,某一个产品的一个文档,当然,也可以拥有某个订单的一个文档。文档以 JSON(Javascript Object Notation)格式来表示,而JSON是一个到处存在的互联网数据交互格式。       
        在一个index/type里面,只要你想,你可以存储任意多的文档。注意,尽管一个文档,物理上存在于一个索引之中,文档必须被索引/赋予一个索引的type。        
分片和复制(shards & replicas)        
        一个索引可以存储超出单个结点硬件限制的大量数据。比如,一个具有10亿文档的索引占据1TB的磁盘空间,而任一节点都没有这样大的磁盘空间;或者单个节点处理搜索请求,响应太慢。        
        为了解决这个问题,Elasticsearch提供了将索引划分成多份的能力,这些份就叫做分片。当你创建一个索引的时候,你可以指定你想要的分片的数量。每个分片本身也是一个功能完善并且独立的“索引”,这个“索引”可以被放置到集群中的任何节点上。        
        分片之所以重要,主要有两方面的原因:        
            - 允许你水平分割/扩展你的内容容量
            - 允许你在分片(潜在地,位于多个节点上)之上进行分布式的、并行的操作,进而提高性能/吞吐量        
        至于一个分片怎样分布,它的文档怎样聚合回搜索请求,是完全由Elasticsearch管理的,对于作为用户的你来说,这些都是透明的        
        在一个网络/云的环境里,失败随时都可能发生,在某个分片/节点不知怎么的就处于离线状态,或者由于任何原因消失了,这种情况下,有一个故障转移机制是非 常有用并且是强烈推荐的。为此目的,Elasticsearch允许你创建分片的一份或多份拷贝,这些拷贝叫做复制分片,或者直接叫复制。        
        复制之所以重要,有两个主要原因:
            - 在分片/节点失败的情况下,提供了高可用性。因为这个原因,注意到复制分片从不与原/主要(original/primary)分片置于同一节点上是非常重要的。
            - 扩展你的搜索量/吞吐量,因为搜索可以在所有的复制上并行运行            
        总之,每个索引可以被分成多个分片。一个索引也可以被复制0次(意思是没有复制)或多次。一旦复制了,每个索引就有了主分片(作为复制源的原来的分片)和 复制分片(主分片的拷贝)之别。分片和复制的数量可以在索引创建的时候指定。在索引创建之后,你可以在任何时候动态地改变复制的数量,但是你事后不能改变 分片的数量。        
        默认情况下,Elasticsearch中的每个索引被分片5个主分片和1个复制,这意味着,如果你的集群中至少有两个节点,你的索引将会有5个主分片和另外5个复制分片(1个完全拷贝),这样的话每个索引总共就有10个分片。

这些问题搞清楚之后,我们就要进入好玩的部分了...

curl -<REST Verb> <Node>:<Port>/<Index>/<Type><ID>

部署:

Elasticsearch是一个绿色版无需安装即可使用:

Elasticsearch需要的jdk版本为1.7:

windows下安装

一:到官网 http://www.elasticsearch.org/download 或者下载中文集成的版本:https://github.com/medcl/elasticsearch-rtf

二:配置系统环境变量:JAVA_HOME: 实际jdk目录,需要1.7及以上版本。

linux下安装

默认官方版与windows配置相同。

中文集成版中:启动插件环境变量配置:

bin\service\elasticsearch.conf   配置ES_HOME: set.default.ES_HOME=E:\service\elasticsearch-rtf

启动、停止服务

默认官方版启动:

linux:./bin/elasticsearch start

window:直接运行bin/elasticsearch.bat

默认官方版停止:

linux:kill 掉elasticsearch 进程。

window:管理启动的elasticsearch.bat 窗口

中文集成版启动与停止:

中文集成版集成了 elasticsearch-servicewrapper这个es插件

linux:

  1. ./elasticsearch console ------前台运行
  2. ./elasticsearch start ------后台运行
  3. ./elasticsearch install -------添加到系统自动启动
  4. ./elasticsearch remove -----取消随系统自动启动
  1. ./elasticsearch stop ------停止
  1. ./elasticsearch restart ------重新启动

window:直接运行elasticsearch.bat

内存配置情况

JVM参数与Elasticsearch对照关系

JVM参数   Elasticsearch默认值 Environment变量
‘-Xms 256m ES_MIN_MEM
’-Xmx 1g ES_MAX_MEM
-Xms and -Xmx   ES_HEAP_SIZE 
-Xmn    ES_HEAP_NEWSIZE
-XX:MaxDirectMemorySize    ES_DIRECT_SIZE

官方版配置:

linux    配置:elasticsearch.bat 添加 set  Elasticsearch变量=值

window配置:elasticsearch.in.sh 添加 set  Elasticsearch变量=值

中文集成版配置:

在service目录下有个elasticsearch.conf配置文件,主要是设置一些java运行环境参数,其中比较重要的是下面的参数:

set.default.ES_MIN_MEM=256

                        set.default.ES_MAX_MEM=1024

群集配置

  1. 常用集群配置参数:config/elasticsearch.yml
  1. discovery.zen.ping.multicast.enabled: false 设置是否打开多播发现节点,默认是true,如果为false 又没有配置集群列表则代表单机运行。
  1. discovery.zen.ping.unicast.hosts: ["host1", "host2:port", "host3[portX-portY]"] 设置集群中master节点的初始列表,可以通过这些节点来自动发现新加入集群的节点。

配置文件介绍

elasticsearch的config文件夹里面有两个配置文件:elasticsearch.yml和logging.yml,第一个是es的基本配置文件,第二个是日志配置文件,es也是使用log4j来记录日志的,所以logging.yml里的设置按普通log4j配置文件来设置就行了。
下面主要讲解下elasticsearch.yml这个文件中可配置的东西。

  1. cluster.name: elasticsearch
  2. 配置es的集群名称,默认是elasticsearches会自动发现在同一网段下的es,如果在同一网段下有多个集群,就可以用这个属性来区分不同的集群。
  3. node.name: "Franz Kafka"
  4. 节点名,默认随机指定一个name列表中名字,该列表在esjar包中config文件夹里name.txt文件中,其中有很多作者添加的有趣名字。
  5. node.master: true
  6. 指定该节点是否有资格被选举成为node,默认是truees是默认集群中的第一台机器为master,如果这台机挂了就会重新选举master
  7. node.data: true
  8. 指定该节点是否存储索引数据,默认为true
  9. index.number_of_shards: 5
  10. 设置默认索引分片个数,默认为5片。
  11.  
  12. index.number_of_replicas: 1
  13. 设置默认索引副本个数,默认为1个副本。
  14. path.conf: /path/to/conf
  15. 设置配置文件的存储路径,默认是es根目录下的config文件夹。
  16. path.data: /path/to/data
  17. 设置索引数据的存储路径,默认是es根目录下的data文件夹,可以设置多个存储路径,用逗号隔开,例:
  18. path.data: /path/to/data1,/path/to/data2
  19. path.work: /path/to/work
  20. 设置临时文件的存储路径,默认是es根目录下的work文件夹。
  21. path.logs: /path/to/logs
  22. 设置日志文件的存储路径,默认是es根目录下的logs文件夹
  23. path.plugins: /path/to/plugins
  24. 设置插件的存放路径,默认是es根目录下的plugins文件夹
  25. bootstrap.mlockall: true
  26. 设置为true来锁住内存。因为当jvm开始swappinges的效率会降低,所以要保证它不swap,可以把ES_MIN_MEMES_MAX_MEM两个环境变量设置成同一个值,并且保证机器有足够的内存分配给es
  27. 同时也要允许elasticsearch的进程可以锁住内存,linux下可以通过`ulimit -l unlimited`命令。
  28. network.bind_host: 192.168.0.1
  29. 设置绑定的ip地址,可以是ipv4ipv6的,默认为0.0.0.0
  30. network.publish_host: 192.168.0.1
  31. 设置其它节点和该节点交互的ip地址,如果不设置它会自动判断,值必须是个真实的ip地址。
  32. network.host: 192.168.0.1
  33. 这个参数是用来同时设置bind_hostpublish_host上面两个参数。
  34. transport.tcp.port: 9300
  35. 设置节点间交互的tcp端口,默认是9300
  36. transport.tcp.compress: true
  37. 设置是否压缩tcp传输时的数据,默认为false,不压缩。
  38. http.port: 9200
  39. 设置对外服务的http端口,默认为9200
  40. http.max_content_length: 100mb
  41. 设置内容的最大容量,默认100mb
  42. http.enabled: false
  43. 是否使用http协议对外提供服务,默认为true,开启。
  44. gateway.type: local
  45. gateway的类型,默认为local即为本地文件系统,可以设置为本地文件系统,分布式文件系统,hadoopHDFS,和amazons3服务器,其它文件系统的设置方法下次再详细说。
  46. gateway.recover_after_nodes: 1
  47. 设置集群中N个节点启动时进行数据恢复,默认为1
  48. gateway.recover_after_time: 5m
  49. 设置初始化数据恢复进程的超时时间,默认是5分钟。
  50. gateway.expected_nodes: 2
  51. 设置这个集群中节点的数量,默认为2,一旦这N个节点启动,就会立即进行数据恢复。
  52. cluster.routing.allocation.node_initial_primaries_recoveries: 4
  53. 初始化数据恢复时,并发恢复线程的个数,默认为4
  54. cluster.routing.allocation.node_concurrent_recoveries: 2
  55. 添加删除节点或负载均衡时并发恢复线程的个数,默认为4
  56. indices.recovery.max_size_per_sec: 0
  57. 设置数据恢复时限制的带宽,如入100mb,默认为0,即无限制。
  58. indices.recovery.concurrent_streams: 5
  59. 设置这个参数来限制从其它分片恢复数据时最大同时打开并发流的个数,默认为5
  60. discovery.zen.minimum_master_nodes: 1
  61. 设置这个参数来保证集群中的节点可以知道其它N个有master资格的节点。默认为1,对于大的集群来说,可以设置大一点的值(2-4
  62. discovery.zen.ping.timeout: 3s
  63. 设置集群中自动发现其它节点时ping连接超时时间,默认为3秒,对于比较差的网络环境可以高点的值来防止自动发现时出错。
  64. discovery.zen.ping.multicast.enabled: false
  65. 设置是否打开多播发现节点,默认是true
  66. discovery.zen.ping.unicast.hosts: ["host1", "host2:port", "host3[portX-portY]"]
  67. 设置集群中master节点的初始列表,可以通过这些节点来自动发现新加入集群的节点。
  68. 下面是一些查询时的慢日志参数设置
  69. index.search.slowlog.level: TRACE
  70. index.search.slowlog.threshold.query.warn: 10s
  71. index.search.slowlog.threshold.query.info: 5s
  72. index.search.slowlog.threshold.query.debug: 2s
  73. index.search.slowlog.threshold.query.trace: 500ms
  74.  
  75. index.search.slowlog.threshold.fetch.warn: 1s
  76. index.search.slowlog.threshold.fetch.info: 800ms
  77. index.search.slowlog.threshold.fetch.debug:500ms
  78. index.search.slowlog.threshold.fetch.trace: 200ms

正常启动为:

对于中文插件的集成与启动插件的集成参考: http://www.51document.com/1364910818272.html

rtf版本的启动后会有一个界面:

简单入门使用:

中文词库 使用参考:https://github.com/medcl/elasticsearch-analysis-mmseg

https://github.com/medcl/elasticsearch-analysis-ik

参数说明:curl -<REST Verb> <Node>:<Port>/<Index>/<Type><ID>

  1. //创建一个名为index的索引库
  2. curl -XPUT http://localhost:9200/index
  3.  
  4. //添加索引:
  5. curl -XPOST http://localhost:9200/index/fulltext/1 -d'
  6. {"content":"美国留给伊拉克的是个烂摊子吗"}
  7. '
  8. curl -XPOST http://localhost:9200/index/fulltext/2 -d'
  9. {"content":"公安部:各地校车将享最高路权"}
  10. '
  11.  
  12. curl -XPOST http://localhost:9200/index/fulltext/3 -d'
  13. {"content":"中韩渔警冲突调查:韩警平均每天扣1艘中国渔船"}
  14. '
  15. curl -XPOST http://localhost:9200/index/fulltext/4 -d'
  16. {"content":"中国驻洛杉矶领事馆遭亚裔男子枪击 嫌犯已自首"}
  17. '
  18. curl -XPOST http://localhost:9200/index/fulltext/5 -d'
  19. {"content":"美国留给伊拉克的是个烂摊子吗","address":"陆家嘴78号"}
  20. '
  21.  
  22. curl -XPOST http://localhost:9200/index/fulltext/6 -d'
  23. {"content":"公安部:各地校车将享最高路权","address":"长吉路78号"}
  24. '
  25. curl -XPOST http://localhost:9200/index/fulltext/7 -d'
  26. {"content":"中韩渔警冲突调查:韩警平均每天扣1艘中国渔船","address":"陆家嘴牡丹路78号"}
  27. '
  28. curl -XPOST http://localhost:9200/index/fulltext/8 -d'
  29. {"content":"中国驻洛杉矶领事馆遭亚裔男子枪击 嫌犯已自首","address":"山东路78号"}
  30. '
  31. 查询:所有字段中包含嫌犯 山东路 的数据
  32.  
  33. curl -XPOST http://localhost:9200/index/fulltext/_search -d'
  34. {
  35. "query" : { "match" : { "_all" : "嫌犯 山东路" }},
  36. "highlight" : {
  37. "pre_tags" : ["<hr>", "<hr>"],
  38. "post_tags" : ["</hr>", "</hr>"],
  39. "fields" : {
  40. "content" : {}
  41. }
  42. },
  43. 'size': ,
  44. "sort": [
  45. {
  46. "content":"asc"
  47. }
  48. ],
  49. "highlight": {
  50. "pre_tags": [
  51. "<hr>",
  52. "<hr>"
  53. ],
  54. "post_tags": [
  55. "</hr>",
  56. "</hr>"
  57. ],
  58. "fields": {
  59. "content": {}
  60. }
  61. }
  62. }
  63. '
  64. curl -XPOST http://localhost:9200/index/fulltext/_search -d'
  65. {
  66. "query" : { "multi_match" : { "query" : "嫌犯 山东路","fields": [ "content", "address" ] }},
  67. "highlight" : {
  68. "pre_tags" : ["<hr>", "<hr>"],
  69. "post_tags" : ["</hr>", "</hr>"],
  70. "fields" : {
  71. "content" : {}
  72. }
  73. }
  74. }
  75. '
  76.  
  77. curl -XPOST http://localhost:9200/index/fulltext/_search -d'
  78. {
  79. "query" : { "multi_match" : { "query" : "嫌犯 山东路","fields": [ "content", "address" ], "operator": "or" ,"minimum_should_match": "50%"}},
  80. "highlight" : {
  81. "pre_tags" : ["<hr>", "<hr>"],
  82. "post_tags" : ["</hr>", "</hr>"],
  83. "fields" : {
  84. "content" : {}
  85. }
  86. }
  87. }
  88. '
  89.  
  90. curl -XPOST http://localhost:9200/index/fulltext/_search -d'
  91. {
  92. "query" : { "more_like_this" : { "like_text" : "嫌犯","fields": [ "content", "address" ] }},
  93. "highlight" : {
  94. "pre_tags" : ["<hr>", "<hr>"],
  95. "post_tags" : ["</hr>", "</hr>"],
  96. "fields" : {
  97. "content" : {}
  98. }
  99. }
  100. }
  101. '
  102.  
  103. curl -XPOST http://localhost:9200/index/fulltext/_search -d'
  104. {
  105. "query" : { "bool" : { "like_text" : "嫌犯","fields": [ "content", "address" ] }},
  106. "highlight" : {
  107. "pre_tags" : ["<hr>", "<hr>"],
  108. "post_tags" : ["</hr>", "</hr>"],
  109. "fields" : {
  110. "content" : {}
  111. }
  112. }
  113. }
  114. '
  115.  
  116. curl -XPOST http://localhost:9200/index/fulltext/_search -d'
  117. {
  118. "query": {
  119. "multi_match": {
  120. "query": "嫌犯 陆家嘴 山东路",
  121. "fields": [
  122. "content",
  123. "address"
  124. ],
  125. "operator": "or",
  126. "minimum_should_match": "50%"
  127. }
  128. },
  129. "highlight": {
  130. "pre_tags": [
  131. "<hr>",
  132. "<hr>"
  133. ],
  134. "post_tags": [
  135. "</hr>",
  136. "</hr>"
  137. ],
  138. "fields": {
  139. "content": {}
  140. }
  141. }
  142. }
  143. '
  144.  
  145. curl -XPOST http://localhost:9200/index/fulltext/_search -d'
  146. {
  147. "query": {
  148. "bool": {
  149. "should": [
  150. {
  151. "term": {
  152. "_all": "嫌犯"
  153. }
  154. }
  155. ]
  156. }
  157. },
  158. "sort": [
  159. {
  160. "address":"asc"
  161. }
  162. ],
  163. "highlight": {
  164. "pre_tags": [
  165. "<hr>",
  166. "<hr>"
  167. ],
  168. "post_tags": [
  169. "</hr>",
  170. "</hr>"
  171. ],
  172. "fields": {
  173. "content": {}
  174. }
  175. }
  176. }

含有距离搜索使用geo_point:

  1. 参考资料:https://github.com/jprante/elasticsearch-river-jdbc/tree/1.0
  1. curl -XDELETE http://localhost:9200/venue
  2.  
  3. curl -XPOST http://localhost:9200/venue -d '
  4. {
  5. "mappings": {
  6. "venue": {
  7. "properties": {
  8. "name": {
  9. "type": "string"
  10. },
  11. "locations": {
  12. "type": "geo_point"
  13. }
  14. }
  15. }
  16. }
  17. }
  18. '
  19.  
  20. curl -X POST "http://localhost:9200/venue/venue/" -d'
  21. {"type":"venue","name":"One","locations":[40.1,-70.1]}'
  22.  
  23. curl -X POST "http://localhost:9200/venue/_refresh"
  24.  
  25. curl -POST 'http://localhost:9200/venue/_search?pretty' -d '
  26. {
  27. "query": {
  28. "filtered": {
  29. "query": {
  30. "match" : { "_all" : "One" }
  31. },
  32. "filter": {
  33. "geo_distance": {
  34. "distance": "60000km",
  35. "locations": {
  36. "lat": 5.0,
  37. "lon": 5.0
  38. }
  39. }
  40. }
  41. }
  42. }
  43. }
  44. '
  45.  
  46. 例子2:
  47.  
  48. curl -XDELETE 'http://localhost:9200/venue/'
  49. curl -XPUT 'http://localhost:9200/venue/'
  50.  
  51. curl -XPUT 'http://localhost:9200/venue/tweet/_mapping' -d '
  52. {
  53. "tweet" : {
  54. "properties" : {
  55. "locations" : {"type" : "geo_point"}
  56. }
  57. }
  58. }'
  59.  
  60. curl -XPUT 'http://localhost:9200/venue/tweet/1' -d '
  61. {
  62. "user": "kimchy",
  63. "postDate": "2009-11-15T13:12:00",
  64. "message": "Trying out Elastic Search, so far so good?",
  65. "locations" : [
  66. {
  67. "lat" : 40.00,
  68. "lon" : 9.00
  69. }]
  70. }'
  71.  
  72. curl -XPUT 'http://localhost:9200/venue/tweet/2' -d '
  73. {
  74. "user": "kimchy",
  75. "postDate": "2009-11-15T13:12:00",
  76. "message": "Trying out Elastic Search, so far so good?",
  77. "locations" : [{
  78. "lat" : 30.00,
  79. "lon" : 8.00
  80. }]
  81. }'
  82.  
  83. curl -XGET 'http://localhost:9200/venue/tweet/_search' -d '{
  84. "query": {
  85. "filtered" : {
  86. "query" : {
  87. "match_all" : {}
  88. },
  89. "filter" : {
  90. "geo_distance" : {
  91. "distance" : "20km",
  92. "locations" : {
  93. "lat" : 40.00,
  94. "lon" : 9.00
  95. }
  96. }
  97. }
  98. }
  99. }
  100. }' 

从mysql数据库同步数据到elasticsearch使用:

插件使用介绍:https://github.com/jprante/elasticsearch-river-jdbc'

https://github.com/jprante/elasticsearch-river-jdbc/tree/1.0

插件需要注意的是jdbc river插件已经对原始的配置做了结构修改,创建index必须按照其api来创建,

其中index 对应原来的index名字,type是创建的type名字,index_settings 里面是elasticsearch原始配置setting api,

Type_mapping是elasticsearch原始配置mapping api,如果需要将数据库row 记录id当作索引主键则需要设置 别名,

例如:select vid as _id ,* from test

其他字段类似,如下:

  1. _index the index this object should be indexed into
  2. _type the type this object should be indexed into
  3. _id the id of this object
  4. _version the version of this object
  5. _parent the parent of this object
  6. _ttl the time-to-live of this object
  7. _routing the routing of this object
  1. curl -XDELETE 'localhost:9200/_river/merchant/_meta'
  2.  
  3. curl -XPOST 'localhost:9200/_river/merchant/_meta' -d '
  4. {
  5. flush_interval: "3s",
  6. type: "jdbc",
  7. jdbc: {
  8. url: "jdbc:mysql://xxx:3307/xrdb",
  9. user: "root",
  10. password: "root",
  11. sql: "select * from 数据库表",
  12. locale: "zh_CN",
  13. index: "laolaibao",
  14. type: "merchant",
  15. index_settings: {
  16. index: {
  17. number_of_shards: ""
  18. }
  19. },
  20. type_mapping: {
  21. merchant: {
  22. dynamic: true,
  23. properties: {
  24. MERCHANT_NAME: {
  25. type: "string",
  26. analyzer: "ik",
  27. indexAnalyzer: "ik",
  28. searchAnalyzer: "ik"
  29. },
  30. STREET_ADDRESS: {
  31. type: "string",
  32. analyzer: "ik",
  33. indexAnalyzer: "ik",
  34. searchAnalyzer: "ik"
  35. },
  36. LOCATIONS: {
  37. type: "geo_point"
  38. }
  39. }
  40. }
  41. }
  42. }
  43. }
  44. '
  45.  
  46. curl -XPOST http://localhost:9200/laolaibao/merchant/_search -d'
  47. {
  48. "query" : { "match" : { "_all" : "宝得 吴淞路258号101室" }},
  49. 'size': ,
  50. "sort": [
  51. {
  52. "address":"asc"
  53. }
  54. ],
  55. "highlight": {
  56. "pre_tags": [
  57. "<hr>",
  58. "<hr>"
  59. ],
  60. "post_tags": [
  61. "</hr>",
  62. "</hr>"
  63. ],
  64. "fields": {
  65. "content": {}
  66. }
  67. }
  68. }
  69. '
  70.  
  71. curl -XPOST http://localhost:9200/laolaibao/merchant/_search -d'
  72. {
  73. "query" : { "multi_match" : { "query" : "宝得莱 吴淞路","fields": [ "MERCHANT_NAME", "STREET_ADDRESS" ] , "operator": "or" ,"minimum_should_match": "70%"}},
  74. 'size': ,
  75. "sort": [
  76. {
  77. "address":"asc"
  78. }
  79. ],
  80. "highlight": {
  81. "pre_tags": [
  82. "<hr>",
  83. "<hr>"
  84. ],
  85. "post_tags": [
  86. "</hr>",
  87. "</hr>"
  88. ],
  89. "fields": {
  90. "content": {}
  91. }
  92. }
  93. }
  94. '
  95.  
  96. curl -XPOST 'http://localhost:9200/laolaibao/merchant/_search?pretty' -d '
  97. {
  98. query: {
  99. filtered: {
  100. query: {
  101. match_all: { }
  102. },
  103. filter: {
  104. geo_distance: {
  105. distance: "50000km",
  106. LOCATIONS: {
  107. lat: "37.752258",
  108. lon: "-121.949886"
  109. }
  110. }
  111. }
  112. }
  113. }
  114. }
  115. '
  1. Java api 使用:
  2.  
  3. 官方参考:http://www.elasticsearch.org/guide/en/elasticsearch/client/java-api spring 对java api 的集成:https://github.com/spring-projects/spring-data-elasticsearch
  1. Pom引入:
  1. <dependency>
  2. <groupId>org.elasticsearch</groupId>
  3. <artifactId>elasticsearch</artifactId>
  4. <version>1.0.0</version>
  5. </dependency>
  6. <dependency>
  7. <groupId>com.spatial4j</groupId>
  8. <artifactId>spatial4j</artifactId>
  9. <version>0.4.1</version>
  10. </dependency>
  11. <dependency>
  12. <groupId>com.vividsolutions</groupId>
  13. <artifactId>jts</artifactId>
  14. <version>1.13</version>
  15. <exclusions>
  16. <exclusion>
  17. <groupId>xerces</groupId>
  18. <artifactId>xercesImpl</artifactId>
  19. </exclusion>
  20. </exclusions>
  21. </dependency>
  1. Elasticsearch 是原始的官方包,
  2. spatial4jjts 是引入未知搜索的第三方包

使用API进行搜索

(分场景进行讨论)

elasticsearch的索引查询主要分为query与filter 两种:query与filter的主要区别在于query会对匹配结果进行评分score,而filter只会对结果做是否匹配判断,不做进一步处理。

所以如果是强制过滤类的操作可以直接根据fiter过滤掉,而需要对模糊的得分进行score评分,优化索引查询得分,最好做query查询。

query 由QueryBuilders生成,filter有FilterBuilders生成,

每个下面索引查询主要分为:termQuery,booleanQuery,matchQuery,rangeQuery,morelikeQuery,prefixQuery等等

过滤也主要分为termFilter,booleanFilter,matchFilter,rangeFilter,morelikeFilter,prefixFilter等等

        查询的创建由SearchRequestBuilder 创建

1.按关键字搜索。

  1.        查询:QueryBuilder qb = QueryBuilders.multiMatchQuery(
  2.                        queryStr, "MERCHANT_NAME", "STREET_ADDRESS"
  3.                    ).minimumShouldMatch("70%") ; 
  1. QueryBuilder qb = QueryBuilders.boolQuery()
  2.     .must(termQuery("content", "test1"))    
  3.     .must(termQuery("content", "test4"))    
  4.     .mustNot(termQuery("content", "test2")) 
  5.     .should(termQuery("content", "test3"));
  1.       过滤:FilterBuilder filter = FilterBuilders.boolFilter()
  1.           .must(FilterBuilders.termFilter("MERCHANT_NAME",“宝得莱”));
  1. FilterBuilder filter = rangeFilter("age")  
  2.   .from("10")                          
  3.     .to("20")                            
  4.     .includeLower(true)                  
  5.     .includeUpper(false);                  

2.关键字搜索+地理位置信息搜索。

  1. FilterBuilder filter = geoDistanceRangeFilter("pin.location")  
  2.     .point(40, -70)                                          
  3.     .from("200km")                                            
  4.     .to("400km")                                            
  5.     .includeLower(true)                                        
  6.     .includeUpper(false)                                      
  7.     .optimizeBbox("memory")                                  
  8.     .geoDistance(GeoDistance.ARC);        
  1. QueryBuilder qb = QueryBuilders.multiMatchQuery(
  2.         queryStr, "MERCHANT_NAME", "STREET_ADDRESS"
  3.   ).minimumShouldMatch("70%") ; 
  1. SearchRequestBuilder request = client.prepareSearch(index) 
  1. .setSearchType(SearchType.QUERY_THEN_FETCH) 
  1. .setScroll(new TimeValue(60000)) 
  1. .setQuery(qb.buildAsBytes()) 
  1. .setPostFilter(filter) 
  1. .setTypes(merchant)
  1. .setFrom(start)
  1. .setSize(limit) 
  1. .execute()
  1. .actionGet();

3.搜索并且排序。

  1. SortBuilder sort = new FieldSortBuilder("_score").order(SortOrder.DESC).ignoreUnmapped(true);
  1. SearchRequestBuilder request = client.prepareSearch(index)
  1. .setSearchType(SearchType.QUERY_THEN_FETCH)
  1. .setQuery(qb.buildAsBytes())
  1. .setPostFilter(filter)
  1. .setTypes(merchant)
  1. .addSort(sort) 
  1. .setFrom(start)
  1. .setSize(limit) 
  1. .execute() 
  1. .actionGet(); 


4.设置搜索权重(或者是索引时建立权重)

查询时:

a. 对特殊字段增加权重

QueryBuilder qb = QueryBuilders.multiMatchQuery(
queryStr,
"MERCHANT_NAME", "STREET_ADDRESS","PROVINCE_NAME","CITY_NAME","DISTRICT_NAME"
)
.field("MERCHANT_NAME",5f)          //添加字段权重 0-1 代表减弱,大于1代表增加默认1
.minimumShouldMatch("40%") ;

BoolFilterBuilder filter = this.parseFilter(mustParams);
filter = this.parseRangeFilter(filter,rangeParams);

SearchResponse scrollResp = null;
SearchRequestBuilder request = client.prepareSearch(index)
.setSearchType(SearchType.QUERY_THEN_FETCH)
.setScroll(new TimeValue(60000))
.setQuery(qb.buildAsBytes())
.setTypes(merchant)
.addHighlightedField("MERCHANT_NAME")
.setHighlighterPreTags("<B>" )
.setHighlighterPostTags("<B>" )
.setFrom(start)
.setSize(limit);

b. 通过需改score算法修改得分规则:

创建索引时:

a. 创建索引时通过在数据json中添加权重boost:1.2 来提高数据索引权重,_boost默认=1,大于1是提高权重,小于1是降低权重。

例:curl -XPOST http://localhost:9200/index/fulltext/19 -d' {_boost:11,"content":"公安部:中国驻洛杉矶领事馆遭亚裔男子枪击"} '

b. 通过创建mapping 是对某列单独提高搜索权重,设置boost。

例:

  1. { mappings: { laolaibao: { _all: { indexAnalyzer: "ik", searchAnalyzer: "ik", term_vector: "no", store: "false" }, properties: { MERCHANT_NAME: { type: "string", store: "no", term_vector: "with_positions_offsets", indexAnalyzer: "ik", searchAnalyzer: "ik", include_in_all: "true", boost: 8 } } } } }

http://songwie.com/articlelist/43

全文检索(elasticsearch入门)的更多相关文章

  1. Elasticsearch全文检索工具入门

    Elasticsearch全文检索工具入门: 1.下载对应系统版本的文件 elasticsearch-2.4.0.zip 1.1运行elasticsearch-2.4.0\elasticsearch- ...

  2. ElasticSearch入门知识扫盲

    ElasticSearch 入门介绍 tags: 第三方 lucene [toc] 1. what Elastic Search(ES)是什么 全文检索和lucene 全文检索 优点:高效,准确,分词 ...

  3. 《读书报告 -- Elasticsearch入门 》--简单使用(2)

    <读书报告 – Elasticsearch入门 > ' 第四章 分布式文件存储 这章的主要内容是理解数据如何在分布式系统中存储. 4.1 路由文档到分片 创建一个新文档时,它是如何确定应该 ...

  4. 《读书报告 -- Elasticsearch入门 》-- 安装以及简单使用(1)

    <读书报告 – Elasticsearch入门 > 第一章 Elasticsearch入门 Elasticsearch是一个实时的分布式搜索和分析引擎,使得人们可以在一定规模上和一定速度上 ...

  5. ElasticSearch 入门

    http://www.oschina.net/translate/elasticsearch-getting-started?cmp ElasticSearch 简单入门 返回原文英文原文:Getti ...

  6. I-team 博客全文检索 Elasticsearch 实战

    一直觉得博客缺点东西,最近还是发现了,当博客慢慢多起来的时候想要找一篇之前写的博客很是麻烦,于是作为后端开发的楼主觉得自己动手丰衣足食,也就有了这次博客全文检索功能Elasticsearch实战,这里 ...

  7. Elasticsearch入门教程(五):Elasticsearch查询(一)

    原文:Elasticsearch入门教程(五):Elasticsearch查询(一) 版权声明:本文为博主原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接和本声明. 本文链接:h ...

  8. 转载:elasticsearch入门篇

    转自:https://www.cnblogs.com/hello-shf/p/11543408.html elasticsearch入门篇   elasticsearch专栏:https://www. ...

  9. Elasticsearch入门教程(三):Elasticsearch索引&映射

    原文:Elasticsearch入门教程(三):Elasticsearch索引&映射 版权声明:本文为博主原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接和本声明. 本文 ...

  10. ElasticSearch入门-搜索如此简单

    搜索引擎我也不是很熟悉,但是数据库还是比较了解.可以把搜索理解为数据库的like功能的替代品.因为like有以下几点不足: 第一.like的效率不行,在使用like时,一般都用不到索引,除非使用前缀匹 ...

随机推荐

  1. iOS_01_C语言简介

    1.先学C语言的原因 * oc基于C. * oc 跟 C的思想和语法很多地方不太一样,而且OC能和C混用. * C 是所有编程语言中的经典,很多高级语言都是从C语言中衍生出来的,比如 C++,C#.O ...

  2. pat 2-05. 求集合数据的均方差(水题)

    代码: #include<cstdio> #include<iostream> #include<cmath> using namespace std; doubl ...

  3. Redis 性能測试

    Redis 性能測试 Redis 性能測试是通过同一时候运行多个命令实现的. 语法 redis 性能測试的基本命令例如以下: redis-benchmark [option] [option valu ...

  4. 支付宝支付返回通知时 notify_url和return_url的选择

    页面跳转同步通知页面特性(return_url特性) 买家在支付成功后会看到一个支付宝交易提示成功的页面,该页面会停留几秒,然后会自动跳转回商户指定的同步通知页面(参数return_url) 该页面中 ...

  5. AE要素选择(点选和拉框选择)

    原文 AE要素选择(点选和拉框选择) 选择一个要素或者一个要素集(FeatureSelection)的方法很多,如IMap::SelectByShape.ILayer::search.IFeature ...

  6. 每天一个JavaScript实例-操作元素定位元素

    <!DOCTYPE html> <html> <head> <meta http-equiv="Content-Type" content ...

  7. Hbase常见异常 分类: B7_HBASE 2015-02-02 16:16 412人阅读 评论(0) 收藏

    1. HBase is able to connect to ZooKeeper but the connection closes immediately hbase(main):001:0> ...

  8. 在Eclipse中运行Nutch2.3 分类: H3_NUTCH 2015-01-28 16:41 3175人阅读 评论(13) 收藏

    参考http://wiki.apache.org/nutch/RunNutchInEclipse 一.环境准备 1.下载nutch2.3源代码 wget http://mirror.bit.edu.c ...

  9. php实现调整数组顺序使奇数位于偶数前面

    php实现调整数组顺序使奇数位于偶数前面 一.总结 1.array_push()两个参数,$arr在前 2.array_merge()的返回值是数组   二.php实现调整数组顺序使奇数位于偶数前面 ...

  10. Perl按行分割文件

    Perl按行分割文件 将一个文件按照行数,均等的分割成多个小文件,例如,一个550行的文件,分割为每个文件有100行,则将分割为6个小文件 运行结果 参考代码(split_file.pl) #!/us ...