转载自:

https://blog.csdn.net/UbuntuTouch/article/details/105564270

在很多的情况下,我们我们想更新我们所有的文档:

  • 添加一个新的field或者是一个字段变成一个multi-field
  • 用一个值更新所有的文档,或者更新复合查询条件的所有文档

在今天的文章中,我们来讲一下_update_by_query的这几个用法。

准备数据

我们来创建一个叫做twitter的索引:

  1. PUT twitter
  2. {
  3. "mappings": {
  4. "properties": {
  5. "DOB": {
  6. "type": "date"
  7. },
  8. "address": {
  9. "type": "keyword"
  10. },
  11. "city": {
  12. "type": "text"
  13. },
  14. "country": {
  15. "type": "keyword"
  16. },
  17. "uid": {
  18. "type": "long"
  19. },
  20. "user": {
  21. "type": "keyword"
  22. },
  23. "province": {
  24. "type": "keyword"
  25. },
  26. "message": {
  27. "type": "text"
  28. },
  29. "location": {
  30. "type": "geo_point"
  31. }
  32. }
  33. }
  34. }

我们使用如下的bulk API来把数据导入:

  1. POST _bulk
  2. { "index" : { "_index" : "twitter", "_id": 1} }
  3. {"user":"张三","message":"今儿天气不错啊,出去转转去","uid":2,"city":"北京","province":"北京","country":"中国","address":"中国北京市海淀区","location":{"lat":"39.970718","lon":"116.325747"}, "DOB":"1980-12-01"}
  4. { "index" : { "_index" : "twitter", "_id": 2 }}
  5. {"user":"老刘","message":"出发,下一站云南!","uid":3,"city":"北京","province":"北京","country":"中国","address":"中国北京市东城区台基厂三条3号","location":{"lat":"39.904313","lon":"116.412754"}, "DOB":"1981-12-01"}
  6. { "index" : { "_index" : "twitter", "_id": 3} }
  7. {"user":"李四","message":"happy birthday!","uid":4,"city":"北京","province":"北京","country":"中国","address":"中国北京市东城区","location":{"lat":"39.893801","lon":"116.408986"}, "DOB":"1982-12-01"}
  8. { "index" : { "_index" : "twitter", "_id": 4} }
  9. {"user":"老贾","message":"123,gogogo","uid":5,"city":"北京","province":"北京","country":"中国","address":"中国北京市朝阳区建国门","location":{"lat":"39.718256","lon":"116.367910"}, "DOB":"1983-12-01"}
  10. { "index" : { "_index" : "twitter", "_id": 5} }
  11. {"user":"老王","message":"Happy BirthDay My Friend!","uid":6,"city":"北京","province":"北京","country":"中国","address":"中国北京市朝阳区国贸","location":{"lat":"39.918256","lon":"116.467910"}, "DOB":"1984-12-01"}
  12. { "index" : { "_index" : "twitter", "_id": 6} }
  13. {"user":"老吴","message":"好友来了都今天我生日,好友来了,什么 birthday happy 就成!","uid":7,"city":"上海","province":"上海","country":"中国","address":"中国上海市闵行区","location":{"lat":"31.175927","lon":"121.383328"}, "DOB":"1985-12-01"}

把一个字段变为multi-field

在上面,我们有意识地把city字段设置为text,但是在实际的应用中city一般来说是keyword类型。比如我们想对city这个字段来进行aggregation。那么我们该如何纠正这个错误呢?我们需要把我们之前的index删除,并使用新的mapping再次重建吗?这在我们的实际的是使用中可能并不现实。这是因为你的数据可能是非常大的,而且这种改动可能会造成很多的问题。那么我们该如何解决这个问题呢?

一种办法是在不删除之前索引的情况下,我们把city变成为一个mulit-field的字段,这样它既可以是一个keyword的类型,也可以同样是一个text类型的字段。为此,我们来修改twitter的mapping:

  1. PUT twitter/_mapping
  2. {
  3. "properties": {
  4. "DOB": {
  5. "type": "date"
  6. },
  7. "address": {
  8. "type": "keyword"
  9. },
  10. "city": {
  11. "type": "text",
  12. "fields": {
  13. "keyword": {
  14. "type": "keyword",
  15. "ignore_above": 256
  16. }
  17. }
  18. },
  19. "country": {
  20. "type": "keyword"
  21. },
  22. "uid": {
  23. "type": "long"
  24. },
  25. "user": {
  26. "type": "keyword"
  27. },
  28. "province": {
  29. "type": "keyword"
  30. },
  31. "message": {
  32. "type": "text"
  33. },
  34. "location": {
  35. "type": "geo_point"
  36. }
  37. }
  38. }

请注意在上面,我们把message的字段变为一个mult-field的字段。即便我们已经把mapping修改了,但是我们的索引并没有把我们的message字段进行分词。为了达到这个目的,我们可以进行如下的操作:

POST twitter/_update_by_query

经过上面的操作后,message字段将会被重新被索引,并可以被我们搜索。

  1. GET twitter/_search
  2. {
  3. "query": {
  4. "match": {
  5. "city.keyword": "北京"
  6. }
  7. }
  8. }

上面显示的结果为:

  1. "hits" : {
  2. "total" : {
  3. "value" : 5,
  4. "relation" : "eq"
  5. },
  6. "max_score" : 0.21357408,
  7. "hits" : [
  8. {
  9. "_index" : "twitter",
  10. "_type" : "_doc",
  11. "_id" : "1",
  12. "_score" : 0.21357408,
  13. "_source" : {
  14. "user" : "张三",
  15. "message" : "今儿天气不错啊,出去转转去",
  16. "uid" : 2,
  17. "city" : "北京",
  18. "province" : "北京",
  19. "country" : "中国",
  20. "address" : "中国北京市海淀区",
  21. "location" : {
  22. "lat" : "39.970718",
  23. "lon" : "116.325747"
  24. },
  25. "DOB" : "1980-12-01"
  26. }
  27. },
  28. ...
  29. }

当然由于这个字段变为multi-field的字段,它含有city.keyword,我们可以对它进行聚合搜索:

  1. GET twitter/_search
  2. {
  3. "size": 0,
  4. "aggs": {
  5. "city_distribution": {
  6. "terms": {
  7. "field": "city.keyword",
  8. "size": 5
  9. }
  10. }
  11. }
  12. }

上面我们对city进行统计,上面显示结果为:

  1. "aggregations" : {
  2. "city_distribution" : {
  3. "doc_count_error_upper_bound" : 0,
  4. "sum_other_doc_count" : 0,
  5. "buckets" : [
  6. {
  7. "key" : "北京",
  8. "doc_count" : 5
  9. },
  10. {
  11. "key" : "上海",
  12. "doc_count" : 1
  13. }
  14. ]
  15. }
  16. }

如果我们不修改city为multi-field,我们将不能对这个字段进行统计了。

增加一个新的字段

同样我们可以通过script的方法来为我们的twitter增加一个新的字段,比如:

  1. POST twitter/_update_by_query
  2. {
  3. "script": {
  4. "source": "ctx._source['contact'] = \"139111111111\""
  5. }
  6. }

通过上面的方法,我们把所有的文档都添加一个新的字段contact,并赋予它一个同样的值:

  1. GET twitter/_search
  2. {
  3. "query": {
  4. "match_all": {}
  5. }
  6. }

上面的命令显示结果:

  1. "hits" : {
  2. "total" : {
  3. "value" : 6,
  4. "relation" : "eq"
  5. },
  6. "max_score" : 1.0,
  7. "hits" : [
  8. {
  9. "_index" : "twitter",
  10. "_type" : "_doc",
  11. "_id" : "1",
  12. "_score" : 1.0,
  13. "_source" : {
  14. "uid" : 2,
  15. "country" : "中国",
  16. "address" : "中国北京市海淀区",
  17. "province" : "北京",
  18. "city" : "北京",
  19. "DOB" : "1980-12-01",
  20. "contact" : "139111111111",
  21. "location" : {
  22. "lon" : "116.325747",
  23. "lat" : "39.970718"
  24. },
  25. "message" : "今儿天气不错啊,出去转转去",
  26. "user" : "张三"
  27. }
  28. },
  29. ...
  30. }

从上面我们可以看出来,有增加一个新的字段contact。

修改已有的字段

假如我们想对所有在北京的文档里的uid都加1,那么我么有通过如下的方法:

  1. POST twitter/_update_by_query
  2. {
  3. "query": {
  4. "match": {
  5. "city.keyword": "北京"
  6. }
  7. },
  8. "script": {
  9. "source": "ctx._source['uid'] += params['one']",
  10. "params": {
  11. "one": 1
  12. }
  13. }
  14. }

在执行上面的命令后,我们进行查询:

  1. GET twitter/_search
  2. {
  3. "query": {
  4. "match": {
  5. "city.keyword": "北京"
  6. }
  7. }
  8. }

显示结果:

  1. "hits" : {
  2. "total" : {
  3. "value" : 5,
  4. "relation" : "eq"
  5. },
  6. "max_score" : 0.24116206,
  7. "hits" : [
  8. {
  9. "_index" : "twitter",
  10. "_type" : "_doc",
  11. "_id" : "1",
  12. "_score" : 0.24116206,
  13. "_source" : {
  14. "uid" : 3,
  15. "country" : "中国",
  16. "address" : "中国北京市海淀区",
  17. "province" : "北京",
  18. "city" : "北京",
  19. "DOB" : "1980-12-01",
  20. "contact" : "139111111111",
  21. "location" : {
  22. "lon" : "116.325747",
  23. "lat" : "39.970718"
  24. },
  25. "message" : "今儿天气不错啊,出去转转去",
  26. "user" : "张三"
  27. }
  28. },
  29. ...
  30. }

上面显示city为北京的所有的文档的uid的数值都被加1了。上面_id为1的原来的uid值为2,现在变为3。

没有动态mapping时,reindex索引

假设您创建了一个没有动态mapping的索引,将其填充了数据,然后添加了一个mapping值以从数据中获取更多字段:

  1. PUT test
  2. {
  3. "mappings": {
  4. "dynamic": false,
  5. "properties": {
  6. "text": {"type": "text"}
  7. }
  8. }
  9. }
  10. POST test/_doc?refresh
  11. {
  12. "text": "words words",
  13. "flag": "bar"
  14. }
  15. POST test/_doc?refresh
  16. {
  17. "text": "words words",
  18. "flag": "foo"
  19. }
  20. PUT test/_mapping
  21. {
  22. "properties": {
  23. "text": {"type": "text"},
  24. "flag": {"type": "text", "analyzer": "keyword"}
  25. }
  26. }

在上面我们创建一个叫做test的索引。首先它的动态mapping被禁止了,也就是在索引时凡是不在mapping定义的字段将被自动识别,它们仅仅存在于source里,我们不能对它进行搜索。为了纠正这个错误,我们在上面的最后一步尝试来修改它的mapping来解决这个问题。那么在新的mapping下,我们之前导入的文档能进行搜索吗?我们尝试如下的命令:

  1. POST test/_search?filter_path=hits.total
  2. {
  3. "query": {
  4. "match": {
  5. "flag": "foo"
  6. }
  7. }
  8. }

我们尝试搜索所有flag中含有foo的文档,但是上面的返回结果是:

  1. {
  2. "hits" : {
  3. "total" : {
  4. "value" : 0,
  5. "relation" : "eq"
  6. }
  7. }
  8. }

那么问题出现在哪里呢?其实在我们修改完mapping以后,我们没有更新我们之前已经导入的文档。我们需要使用_update_by_query来做类似reindex的工作。我们使用如下的命令:

POST test/_update_by_query?refresh&conflicts=proceed

我们重新来搜索我们的文档:

  1. POST test/_search?filter_path=hits.total
  2. {
  3. "query": {
  4. "match": {
  5. "flag": "foo"
  6. }
  7. }
  8. }

上面的查询显示的结果是:

  1. {
  2. "hits" : {
  3. "total" : {
  4. "value" : 1,
  5. "relation" : "eq"
  6. }
  7. }
  8. }

显然,在运行完_update_by_query后,我们可以找到我们的文档了。

针对大量数据的reindex

上面所有的_update_by_query针对少量的数据还是很不错的。但是在我们的实际应用中,我们可能遇到很大的数据量,那么万一在reindex的过程中发生意外,那我们还需要从头开始吗?或者我们已经处理过的数据还需要再做一遍吗?一种通用的解决办法就是在我们的mapping中定义一个字段,比如叫做reindexBatch,那么我们可以通过添加这个字段来跟踪我们的进度:

  1. POST blogs_fixed/_update_by_query
  2. {
  3. "query": {
  4. "range": {
  5. "flag": {
  6. "lt": 1
  7. }
  8. }
  9. },
  10. "script": {
  11. "source": "ctx._source['flag']=1"
  12. }
  13. }

即使在reindex的过程已经失败了,我们再次运行上面的_update_by_query时,之前已经处理过的文件将不再被处理了。

_update_by_query 除了上面的用法之外,我们也可以结合pipepline来对我们的索引数据进行加工。详细的用法请参阅我之前的文章“运用Elastic Stack分析COVID-19数据并进行可视化分析”。

更多阅读Elasticsearch: Reindex接口

Elasticsearch:使用_update_by_query更新文档的更多相关文章

  1. ES4:ElasticSearch 使用C#添加和更新文档

    这是ElasticSearch 2.4 版本系列的第四篇: 第一篇:ES1:Windows下安装ElasticSearch 第二篇:ES2:ElasticSearch 集群配置 第三篇:ES3:Ela ...

  2. ElasticSearch入门 第四篇:使用C#添加和更新文档

    这是ElasticSearch 2.4 版本系列的第四篇: ElasticSearch入门 第一篇:Windows下安装ElasticSearch ElasticSearch入门 第二篇:集群配置 E ...

  3. elasticsearch 基础 —— 索引、更新文档

    索引文档 通过使用 index API ,文档可以被 索引 -- 存储和使文档可被搜索 . 但是首先,我们要确定文档的位置.正如我们刚刚讨论的,一个文档的 _index . _type 和 _id 唯 ...

  4. Elasticsearch 更新文档

    章节 Elasticsearch 基本概念 Elasticsearch 安装 Elasticsearch 使用集群 Elasticsearch 健康检查 Elasticsearch 列出索引 Elas ...

  5. ES使用C#添加和更新文档

    ElasticSearch 使用C#添加和更新文档 这是ElasticSearch 2.4 版本系列的第四篇: 第一篇:ES1:Windows下安装ElasticSearch 第二篇:ES2:Elas ...

  6. REST API (更新文档)

    Elasticsearch的更新文档API准许通过脚本操作来更新文档.更新操作从索引中获取文档,执行脚本,然后获得返回结果.它使用版本号来控制文档获取或者重建索引. 我们新建一个文档: 请求:PUT  ...

  7. MongoDB更新文档

    说明:来看一下关系型数据库的update语句 UPDATE 表名称 SET 列名称 = 新值 WHERE 列名称 = 某 其中where子句就类似查询文本,定位要更改的子表,set子句类似于修改器,更 ...

  8. SharePoint 更新文档库文档标题(Title)字段

    前言:记录下写代码中遇到的小问题,帮同事写一个批量更新文档库标题字段的小程序,本来以为就Update一下就可以了,10分钟可以搞定.结果10分钟过去了,代码写好了,执行起来不报错,调试也没问题,只是要 ...

  9. Mongodb(3)插入文档,更新文档,删除文档

    insert() 方法 要插入数据到 MongoDB 集合,需要使用 MongoDB 的  insert() 或 save() 方法. 插入文档:db.COLLECTION_NAME.insert(d ...

随机推荐

  1. shell脚本语句

    条件语句 1.if语句 语法格式: if [ expression ] then 命令 elif [ expression ] then 命令 -- else 命令 fi if语句有单分支结构,双分支 ...

  2. CF1702B Polycarp Writes a Srting from Memory 题解

    给定一个字符串,每天可以记忆三个字符,求书写出整个字符串的天数. 每次确定要记忆的三个字母,并向后寻找,若有非三个字母其中一个,则重新开启一天记忆三个字母. #include<cstdio> ...

  3. MySQL基本操作笔记

    一.数值类型 1.常量(1)字符串常量 ASCII字符串常量占一个字节 例如:'Hello Word' Unicode字符串常量占两个字节 例如:N'Hello Word' mysql> sel ...

  4. 从零开始Blazor Server(1)--项目搭建

    项目介绍 本次项目准备搭建一个使用Furion框架,Blazor的UI使用BootstrapBlazor.数据库ORM使用Freesql的后台管理系统. 目前的规划是实现简单的注册,登录.增加管理员跟 ...

  5. linux服务器监控脚本

    #!/bin/bash #获取cpu使用率 cpuUsage=`top -n 1 | awk -F '[ %]+' 'NR==3 {print $2}'` #获取磁盘使用率 data_name=&qu ...

  6. 故障案例 | 慢SQL引发MySQL高可用切换排查全过程

    作者:梁行 万里数据库DBA,擅长数据库性能问题诊断.事务与锁问题的分析等,负责处理客户MySQL日常运维中的问题,对开源数据库相关技术非常感兴趣. GreatSQL社区原创内容未经授权不得随意使用, ...

  7. Apache SeaTunnel (Incubating) 2.1.0 发布,内核重构、全面支持 Flink

    2021 年 12 月 9 日,SeaTunnel (原名 Waterdrop) 成功加入 Apache 孵化器,进入孵化器后,SeaTunnel 社区花费了大量时间来梳理整个项目的外部依赖以确保整个 ...

  8. Redis 15 主从复制

    参考源 https://www.bilibili.com/video/BV1S54y1R7SB?spm_id_from=333.999.0.0 版本 本文章基于 Redis 6.2.6 概述 主从复制 ...

  9. Git 01 介绍

    参考源 https://www.bilibili.com/video/BV1FE411P7B3?spm_id_from=333.999.0.0 版本 本文章基于 Git 2.35.1.2 版本控制 版 ...

  10. DS二叉树——二叉树之数组存储

    题目描述 二叉树可以采用数组的方法进行存储,把数组中的数据依次自上而下,自左至右存储到二叉树结点中,一般二叉树与完全二叉树对比,比完全二叉树缺少的结点就在数组中用0来表示.,如下图所示 从上图可以看出 ...