摘要: 对于MongoDB的多键查询,创建复合索引可以有效提高性能。

什么是复合索引?

复合索引,即Compound Index,指的是将多个键组合到一起创建索引,这样可以加速匹配多个键的查询。不妨通过一个简单的示例理解复合索引。

students集合如下:

  1. db.students.find().pretty()
    {
    "_id" : ObjectId("5aa7390ca5be7272a99b042a"),
    "name" : "zhang",
    "age" : "15"
    }
    {
    "_id" : ObjectId("5aa7393ba5be7272a99b042b"),
    "name" : "wang",
    "age" : "15"
    }
    {
    "_id" : ObjectId("5aa7393ba5be7272a99b042c"),
    "name" : "zhang",
    "age" : "14"
    }

在name和age两个键分别创建了索引(_id自带索引):

  1. db.students.getIndexes()
    [
    {
    "v" : 1,
    "key" : {
    "name" : 1
    },
    "name" : "name_1",
    "ns" : "test.students"
    },
    {
    "v" : 1,
    "key" : {
    "age" : 1
    },
    "name" : "age_1",
    "ns" : "test.students"
    }
    ]

当进行多键查询时,可以通过explian()分析执行情况(结果仅保留winningPlan):

  1. db.students.find({name:"zhang",age:"14"}).explain()
    "winningPlan":
    {
    "stage": "FETCH",
    "filter":
    {
    "name":
    {
    "$eq": "zhang"
    }
    },
    "inputStage":
    {
    "stage": "IXSCAN",
    "keyPattern":
    {
    "age": 1
    },
    "indexName": "age_1",
    "isMultiKey": false,
    "isUnique": false,
    "isSparse": false,
    "isPartial": false,
    "indexVersion": 1,
    "direction": "forward",
    "indexBounds":
    {
    "age": [
    "[\"14\", \"14\"]"
    ]
    }
    }
    }

由winningPlan可知,这个查询依次分为IXSCANFETCH两个阶段。IXSCAN即索引扫描,使用的是age索引;FETCH即根据索引去查询文档,查询的时候需要使用name进行过滤。

为name和age创建复合索引:

  1. db.students.createIndex({name:1,age:1})
  2.  
  3. db.students.getIndexes()
    [
    {
    "v" : 1,
    "key" : {
    "name" : 1,
    "age" : 1
    },
    "name" : "name_1_age_1",
    "ns" : "test.students"
    }
    ]

有了复合索引之后,同一个查询的执行方式就不同了:

  1. db.students.find({name:"zhang",age:"14"}).explain()
    "winningPlan":
    {
    "stage": "FETCH",
    "inputStage":
    {
    "stage": "IXSCAN",
    "keyPattern":
    {
    "name": 1,
    "age": 1
    },
    "indexName": "name_1_age_1",
    "isMultiKey": false,
    "isUnique": false,
    "isSparse": false,
    "isPartial": false,
    "indexVersion": 1,
    "direction": "forward",
    "indexBounds":
    {
    "name": [
    "[\"zhang\", \"zhang\"]"
    ],
    "age": [
    "[\"14\", \"14\"]"
    ]
    }
    }
    }

由winningPlan可知,这个查询的顺序没有变化,依次分为IXSCANFETCH两个阶段。但是,IXSCAN使用的是name与age的复合索引;FETCH即根据索引去查询文档,不需要过滤。

这个示例的数据量太小,并不能看出什么问题。但是实际上,当数据量很大,IXSCAN返回的索引比较多时,FETCH时进行过滤将非常耗时。接下来将介绍一个真实的案例。

定位MongoDB性能问题

随着接收的错误数据不断增加,我们Fundebug已经累计处理3.5亿错误事件,这给我们的服务不断带来性能方面的挑战,尤其对于MongoDB集群来说。

对于生产数据库,配置profile,可以记录MongoDB的性能数据。执行以下命令,则所有超过1s的数据库读写操作都会被记录下来。

  1. db.setProfilingLevel(1,1000)

查询profile所记录的数据,会发现events集合的某个查询非常慢:

  1. db.system.profile.find().pretty()
    {
    "op" : "command",
    "ns" : "fundebug.events",
    "command" : {
    "count" : "events",
    "query" : {
    "createAt" : {
    "$lt" : ISODate("2018-02-05T20:30:00.073Z")
    },
    "projectId" : ObjectId("58211791ea2640000c7a3fe6")
    }
    },
    "keyUpdates" : 0,
    "writeConflicts" : 0,
    "numYield" : 1414,
    "locks" : {
    "Global" : {
    "acquireCount" : {
    "r" : NumberLong(2830)
    }
    },
    "Database" : {
    "acquireCount" : {
    "r" : NumberLong(1415)
    }
    },
    "Collection" : {
    "acquireCount" : {
    "r" : NumberLong(1415)
    }
    }
    },
    "responseLength" : 62,
    "protocol" : "op_query",
    "millis" : 28521,
    "execStats" : {
  2.  
  3. },
    "ts" : ISODate("2018-03-07T20:30:59.440Z"),
    "client" : "192.168.59.226",
    "allUsers" : [ ],
    "user" : ""
    }

events集合中有数亿个文档,因此count操作比较慢也不算太意外。根据profile数据,这个查询耗时28.5s,时间长得有点离谱。另外,numYield高达1414,这应该就是操作如此之慢的直接原因。根据MongoDB文档,numYield的含义是这样的:

The number of times the operation yielded to allow other operations to complete. Typically, operations yield when they need access to data that MongoDB has not yet fully read into memory. This allows other operations that have data in memory to complete while MongoDB reads in data for the yielding operation.

这就意味着大量时间消耗在读取硬盘上,且读了非常多次。可以推测,应该是索引的问题导致的。

不妨使用explian()来分析一下这个查询(仅保留executionStats):

  1. db.events.explain("executionStats").count({"projectId" : ObjectId("58211791ea2640000c7a3fe6"),createAt:{"$lt" : ISODate("2018-02-05T20:30:00.073Z")}})
    "executionStats":
    {
    "executionSuccess": true,
    "nReturned": 20853,
    "executionTimeMillis": 28055,
    "totalKeysExamined": 28338,
    "totalDocsExamined": 28338,
    "executionStages":
    {
    "stage": "FETCH",
    "filter":
    {
    "createAt":
    {
    "$lt": ISODate("2018-02-05T20:30:00.073Z")
    }
    },
    "nReturned": 20853,
    "executionTimeMillisEstimate": 27815,
    "works": 28339,
    "advanced": 20853,
    "needTime": 7485,
    "needYield": 0,
    "saveState": 1387,
    "restoreState": 1387,
    "isEOF": 1,
    "invalidates": 0,
    "docsExamined": 28338,
    "alreadyHasObj": 0,
    "inputStage":
    {
    "stage": "IXSCAN",
    "nReturned": 28338,
    "executionTimeMillisEstimate": 30,
    "works": 28339,
    "advanced": 28338,
    "needTime": 0,
    "needYield": 0,
    "saveState": 1387,
    "restoreState": 1387,
    "isEOF": 1,
    "invalidates": 0,
    "keyPattern":
    {
    "projectId": 1
    },
    "indexName": "projectId_1",
    "isMultiKey": false,
    "isUnique": false,
    "isSparse": false,
    "isPartial": false,
    "indexVersion": 1,
    "direction": "forward",
    "indexBounds":
    {
    "projectId": [
    "[ObjectId('58211791ea2640000c7a3fe6'), ObjectId('58211791ea2640000c7a3fe6')]"
    ]
    },
    "keysExamined": 28338,
    "dupsTested": 0,
    "dupsDropped": 0,
    "seenInvalidated": 0
    }
    }
    }

可知,events集合并没有为projectId与createAt建立复合索引,因此IXSCAN阶段采用的是projectId索引,其nReturned为28338; FETCH阶段需要根据createAt进行过滤,其nReturned为20853,过滤掉了7485个文档;另外,IXSCAN与FETCH阶段的executionTimeMillisEstimate分别为30ms27815ms,因此基本上所有时间都消耗在了FETCH阶段,这应该是读取硬盘导致的。

创建复合索引

没有为projectId和createAt创建复合索引是个尴尬的错误,赶紧补救一下:

  1. db.events.createIndex({projectId:1,createTime:-1},{background: true})

在生产环境构建索引这种事最好是晚上做,这个命令一共花了大概7个小时吧!background设为true,指的是不要阻塞数据库的其他操作,保证数据库的可用性。但是,这个命令会一直占用着终端,这时不能使用CTRL + C,否则会终止索引构建过程。

复合索引创建成果之后,前文的查询就快了很多(仅保留executionStats):

  1. db.javascriptevents.explain("executionStats").count({"projectId" : ObjectId("58211791ea2640000c7a3fe6"),createAt:{"$lt" : ISODate("2018-02-05T20:30:00.073Z")}})
    "executionStats":
    {
    "executionSuccess": true,
    "nReturned": 0,
    "executionTimeMillis": 47,
    "totalKeysExamined": 20854,
    "totalDocsExamined": 0,
    "executionStages":
    {
    "stage": "COUNT",
    "nReturned": 0,
    "executionTimeMillisEstimate": 50,
    "works": 20854,
    "advanced": 0,
    "needTime": 20853,
    "needYield": 0,
    "saveState": 162,
    "restoreState": 162,
    "isEOF": 1,
    "invalidates": 0,
    "nCounted": 20853,
    "nSkipped": 0,
    "inputStage":
    {
    "stage": "COUNT_SCAN",
    "nReturned": 20853,
    "executionTimeMillisEstimate": 50,
    "works": 20854,
    "advanced": 20853,
    "needTime": 0,
    "needYield": 0,
    "saveState": 162,
    "restoreState": 162,
    "isEOF": 1,
    "invalidates": 0,
    "keysExamined": 20854,
    "keyPattern":
    {
    "projectId": 1,
    "createAt": -1
    },
    "indexName": "projectId_1_createTime_-1",
    "isMultiKey": false,
    "isUnique": false,
    "isSparse": false,
    "isPartial": false,
    "indexVersion": 1
    }
    }
    }

可知,count操作使用了projectId和createAt的复合索引,因此非常快,只花了46ms,性能提升了将近600倍!!!对比使用复合索引前后的结果,发现totalDocsExamined从28338降到了0,表示使用复合索引之后不再需要去查询文档,只需要扫描索引就好了,这样就不需要去访问磁盘了,自然快了很多。

参考

  1. 版权声明:
  2. 转载时请注明作者Fundebug以及本文地址:
  3. https://blog.fundebug.com/2018/03/15/mongdb_compound_index_detail/

MongoDB复合索引详解的更多相关文章

  1. 快速掌握mongoDB(三)——mongoDB的索引详解

    1 mongoDB索引的管理 本节介绍mongoDB中的索引,熟悉mysql/sqlserver等关系型数据库的小伙伴应该都知道索引对优化数据查询的重要性.我们先简单了解一下索引:索引的本质就是一个排 ...

  2. MySQL 联合索引详解

    MySQL 联合索引详解   联合索引又叫复合索引.对于复合索引:Mysql从左到右的使用索引中的字段,一个查询可以只使用索引中的一部份,但只能是最左侧部分.例如索引是key index (a,b,c ...

  3. Oracle索引详解

    Oracle索引详解(二) --索引分类   Oracle 提供了大量索引选项.知道在给定条件下使用哪个选项对于一个程序的性能来说非常重要.一个错误的选择可能会引发死锁,并导致数据库性能急剧下降或进程 ...

  4. 【详细解析】MySQL索引详解( 索引概念、6大索引类型、key 和 index 的区别、其他索引方式)

    [详细解析]MySQL索引详解( 索引概念.6大索引类型.key 和 index 的区别.其他索引方式) MySQL索引的概念: 索引是一种特殊的文件(InnoDB数据表上的索引是表空间的一个组成部分 ...

  5. 使用VS2010编译MongoDB C++驱动详解

    最近为了解决IM消息记录的高速度写入.多文档类型支持的需求,决定使用MongoDB来解决. 考虑到MongoDB对VS版本要求较高,与我现有的VS版本不兼容,在leveldb.ssdb.redis.h ...

  6. elasticsearch系列三:索引详解(分词器、文档管理、路由详解(集群))

    一.分词器 1. 认识分词器  1.1 Analyzer   分析器 在ES中一个Analyzer 由下面三种组件组合而成: character filter :字符过滤器,对文本进行字符过滤处理,如 ...

  7. elasticsearch系列二:索引详解(快速入门、索引管理、映射详解、索引别名)

    一.快速入门 1. 查看集群的健康状况 http://localhost:9200/_cat http://localhost:9200/_cat/health?v 说明:v是用来要求在结果中返回表头 ...

  8. MySQL 索引详解大全

    什么是索引? 1.索引 索引是表的目录,在查找内容之前可以先在目录中查找索引位置,以此快速定位查询数据.对于索引,会保存在额外的文件中. 2. 索引,是数据库中专门用于帮助用户快速查询数据的一种数据结 ...

  9. 最全面的 MySQL 索引详解

    什么是索引? 1.索引 索引是表的目录,在查找内容之前可以先在目录中查找索引位置,以此快速定位查询数据.对于索引,会保存在额外的文件中. 2.索引,是数据库中专门用于帮助用户快速查询数据的一种数据结构 ...

随机推荐

  1. 【转】Asp.NetMve移除HTTP Header中服務器信息Server、X-AspNet-Version、X-AspNetMvc-Version、X-Powered-By:ASP.NET

    默認情況下Chrome中截獲的HTTP Header信息: Cache-Control: Content-Encoding:gzip Content-Length: Content-Type:text ...

  2. Java核心技术卷一基础知识-第12章-泛型程序设计-读书笔记

    第12章 泛型程序设计 本章内容: * 为什么要使用泛型程序设计 * 定义简单泛型类 * 泛型方法 * 类型变量的限定 * 泛型代码和虚拟机 * 约束与局限性 * 泛型类型的继承规则 * 通配符类型 ...

  3. C语言那年踩过的坑--局部变量,静态变量,全局变量在内存中存放的位置

    先看几个概念: 1.bss是英文block started by symbol的简称,通常是指用来存放程序中未初始化的全局变量的一块内存区域,在程序载入时由内核清0.bss段属于静态内存分配.它的初始 ...

  4. C语言小笔记

    头文件的书写 头文件实现函数声明,在使用模板后可以实现一个C文件中即使重复包含某个头文件,在系统中用于只会确认为一个包含 头文件包含可以理解为将头文件内容替换#include“...”行 模板(don ...

  5. supervisor 启动dotnet.core 报“ too many start retries too quickly”

    环境: 操作系统:Centos 7 dotnet core:2.0.0    2.1.3 问题: 在使用supervisor 配置守护进程时,启动dotnet.core程序失败,查看/tmp下supe ...

  6. 缓存日志截取字段上传FTP

    #!/bin/bash awk '{print $3,$4,$5,$6,$9,$11,$12,$14,$15,$18}' /usr/local/tcacheserver/var/log/traffic ...

  7. mesos支持gpu代码分析以及capos支持gpu实现

    这篇文章涉及mesos如何在原生的mesoscontainerizer和docker containerizer上支持gpu的,以及如果自己实现一个mesos之上的framework capos支持g ...

  8. [Be a Coding Plasterer] Components 1:get Basic Things

    Writer:BYSocket(泥沙砖瓦浆木匠) 微博:BYSocket 豆瓣:BYSocket Reprint it anywhere u want. Written In The Font I a ...

  9. ftp服务器搭建及简单操作

    ftp服务器搭建及简单操作 1. 添加一个新用户,使用名useradd testftp,然后使用passwd testftp对新添加的用户设置密码(这里设置为“1234567”). 2. 安装ftp服 ...

  10. MySQL的使用及优化

    前言 最近听了公司里的同事做的技术分享,然后觉得对自己还是挺有帮助的.都是一些日常需要注意的地方,我们目前在开发过程中,其实用不到MySQL太深的内容的.只是能适用我们日常开发的知识就可以了.所以我将 ...