去年的笔记

For instance, if a chunk represents a single shard key value, then MongoDB cannot split the chunk even when the chunk exceeds the size at which splits occur.

如果一个chunk只包含一个分片键值,mongodb 就不会split这个chunk,即使这个chunk超过了 chunk需要split时的大小。所以分片键的选择非常重要。

这里举个例子,比如我们使用日期(精确到日) 作为分片键,当某一天的数据非常多时,这个分片键值(比如2015/12/12)的对应的chunk会非常大,

超过64M,但是这个chunk是不可分割的。这会造成数据在各个分片中不平衡,出现性能问题。

所以我们要以 选择性高的字段做为分片键,如果这个字段(比如 日志级别)选择性低,我们可以再添加一个选择性高的字段,两个字段做为分片键。

如果以日期做为分片键,为了避免大的chunk,我们可以把日期精确到 时分秒 然后做分片键。

if your chunk ranges get down to a single key value then no further splits are possible and you get "jumbo" chunks。

以下是 大的chunk的例子:

http://dba.stackexchange.com/questions/72626/mongo-large-chunks-will-not-split

一个常见的错误:

Mongos version 3.0.1 Split Chunk Error with Sharding

http://dba.stackexchange.com/questions/96732/mongos-version-3-0-1-split-chunk-error-with-sharding?rq=1

手动切割分片:

http://www.cnblogs.com/xuegang/archive/2012/12/27/2836209.html

一、使用splitFind对可分割的chunk 手动分割。

splitFind(namespace, query),query的值必须包括分片键。将一个query指定的chunk,分割为两个基本相等大小的chunk。

mongos> db.users003.getShardDistribution()

Shard shard1 at shard1/192.168.137.111:27017,192.168.137.75:27017
 data : 212KiB docs : 3359 chunks : 2
 estimated data per chunk : 106KiB
 estimated docs per chunk : 1679 Shard shard2 at shard2/192.168.137.138:27018,192.168.137.75:27018
 data : 211KiB docs : 3337 chunks : 2
 estimated data per chunk : 105KiB
 estimated docs per chunk : 1668 Shard shard3 at shard3/192.168.137.111:27019,192.168.137.138:27019
 data : 209KiB docs : 3304 chunks : 2
 estimated data per chunk : 104KiB
 estimated docs per chunk : 1652 Totals
 data : 633KiB docs : 10000 chunks : 6
 Shard shard1 contains 33.58% data, 33.58% docs in cluster, avg obj size on shard : 64B
 Shard shard2 contains 33.37% data, 33.37% docs in cluster, avg obj size on shard : 64B
 Shard shard3 contains 33.03% data, 33.04% docs in cluster, avg obj size on shard : 64B mongos> 
mongos>  mongos> AllChunkInfo("test1.users003", true);
ChunkID,Shard,ChunkSize,ObjectsInChunk
test1.users003-_id_MinKey,shard1,106368,1662
test1.users003-_id_-6148914691236517204,shard1,108608,1697
test1.users003-_id_-3074457345618258602,shard3,107072,1673
test1.users003-_id_0,shard3,104384,1631
test1.users003-_id_3074457345618258602,shard2,110592,1728
test1.users003-_id_6148914691236517204,shard2,102976,1609
***********Summary Chunk Information***********
Total Chunks: 6
Average Chunk Size (bytes): 106666.66666666667
Empty Chunks: 0
Average Chunk Size (non-empty): 106666.66666666667
mongos> db.users003.count()
10000
 

执行splitFind之后,chunk被分割为两个基本相同大小的chunk:

mongos> sh.splitFind("test1.users003",{"name" : "u_100"})
{
"ok" : 0,
"errmsg" : "no shard key found in chunk query { name: \"u_100\" }"
}
mongos> sh.splitFind("test1.users003",{"_id" : ObjectId("568bdf16e05cf980cec8c455")})
{ "ok" : 1 }
mongos> 
mongos> 
mongos> 
mongos> 
mongos> 
mongos> 
mongos> AllChunkInfo("test1.users003", true);
ChunkID,Shard,ChunkSize,ObjectsInChunk
test1.users003-_id_MinKey,shard1,106368,1662
test1.users003-_id_-6148914691236517204,shard1,54272,848
test1.users003-_id_-4665891797978533183,shard1,54336,849
test1.users003-_id_-3074457345618258602,shard3,107072,1673
test1.users003-_id_0,shard3,104384,1631
test1.users003-_id_3074457345618258602,shard2,110592,1728
test1.users003-_id_6148914691236517204,shard2,102976,1609
***********Summary Chunk Information***********
Total Chunks: 7
Average Chunk Size (bytes): 91428.57142857143
Empty Chunks: 0
Average Chunk Size (non-empty): 91428.57142857143
mongos> db.users003.getShardDistribution() Shard shard1 at shard1/192.168.137.111:27017,192.168.137.75:27017
 data : 212KiB docs : 3359 chunks : 3
 estimated data per chunk : 70KiB
 estimated docs per chunk : 1119 Shard shard2 at shard2/192.168.137.138:27018,192.168.137.75:27018
 data : 211KiB docs : 3337 chunks : 2
 estimated data per chunk : 105KiB
 estimated docs per chunk : 1668 Shard shard3 at shard3/192.168.137.111:27019,192.168.137.138:27019
 data : 209KiB docs : 3304 chunks : 2
 estimated data per chunk : 104KiB
 estimated docs per chunk : 1652 Totals
 data : 633KiB docs : 10000 chunks : 7
 Shard shard1 contains 33.58% data, 33.58% docs in cluster, avg obj size on shard : 64B
 Shard shard2 contains 33.37% data, 33.37% docs in cluster, avg obj size on shard : 64B
 Shard shard3 contains 33.03% data, 33.04% docs in cluster, avg obj size on shard : 64B
 

二、使用splitAt对可分割的chunk 手动分割。

splitAt(namespace, query) 官方解释:

sh.splitAt() splits the original chunk into two chunks. One chunk has a shard key range

that starts with the original lower bound (inclusive) and ends at the specified shard key value (exclusive).

The other chunk has a shard key range that starts with the specified shard key value (inclusive) as the lower bound

and ends at the original upper bound (exclusive).

三、手动迁移chunk

db.runCommand( { moveChunk : "myapp.users" ,

find : {username : "smith"} ,

to : "mongodb-shard3.example.net" } )

注释:

moveChunk:一个集合的名字要加上数据库的名称:比如test.yql

find:一个查询语句,指定集合中的符合查询的数据或者chunk,系统自动查出from 的shard

to: 指向chunk的目的shard

只要目的shard和源sharad同意指定的chunk由目的shard接管,命令就返回。迁移chunk是一个比较复杂的过程,它包括两个内部通信协议:

1 复制数据,包括在复制过程中的变化的数据

2 确保所有参与迁移的组成部分:目的shard ,源shard ,config server都确定迁移已经完成!

The command will block until the migration is complete.

四、相关脚本

--显示collection的chunk分布信息
db.collection.getShardDistribution() 显示chunk信息脚本:
AllChunkInfo = function(ns, est){
    var chunks = db.getSiblingDB("config").chunks.find({"ns" : ns}).sort({min:1}); //this will return all chunks for the ns ordered by min
    //some counters for overall stats at the end
    var totalChunks = 0;
    var totalSize = 0;
    var totalEmpty = 0;
    print("ChunkID,Shard,ChunkSize,ObjectsInChunk"); // header row
    // iterate over all the chunks, print out info for each 
    chunks.forEach( 
        function printChunkInfo(chunk) {          var db1 = db.getSiblingDB(chunk.ns.split(".")[0]); // get the database we will be running the command against later
        var key = db.getSiblingDB("config").collections.findOne({_id:chunk.ns}).key; // will need this for the dataSize call
        // dataSize returns the info we need on the data, but using the estimate option to use counts is less intensive
        var dataSizeResult = db1.runCommand({datasize:chunk.ns, keyPattern:key, min:chunk.min, max:chunk.max, estimate:est});
        // printjson(dataSizeResult); // uncomment to see how long it takes to run and status           
        print(chunk._id+","+chunk.shard+","+dataSizeResult.size+","+dataSizeResult.numObjects); 
        totalSize += dataSizeResult.size;
        totalChunks++;
        if (dataSizeResult.size == 0) { totalEmpty++ }; //count empty chunks for summary
        }
    )
    print("***********Summary Chunk Information***********");
    print("Total Chunks: "+totalChunks);
    print("Average Chunk Size (bytes): "+(totalSize/totalChunks));
    print("Empty Chunks: "+totalEmpty);
    print("Average Chunk Size (non-empty): "+(totalSize/(totalChunks-totalEmpty)));
}   使用示例:
mongos> AllChunkInfo("test1.users001", true);
ChunkID,Shard,ChunkSize,ObjectsInChunk
test1.users001-_id_MinKey,shard3,11347710,171935
test1.users001-_id_-6148914691236517204,shard1,11293458,171113
test1.users001-_id_-3074457345618258602,shard1,11320716,171526
test1.users001-_id_0,shard3,11349096,171956
test1.users001-_id_3074457345618258602,shard2,11340054,171819
test1.users001-_id_6148914691236517204,shard2,11328966,171651
***********Summary Chunk Information***********
Total Chunks: 6
Average Chunk Size (bytes): 11330000
Empty Chunks: 0
Average Chunk Size (non-empty): 11330000
转载自:
https://blog.51cto.com/raugher/1734917

Mongodb 分片 手动维护chunk的更多相关文章

  1. MongoDB分片 在部署和维护管理 中常见事项的总结

    分片(sharding)是MongoDB将大型集合分割到不同服务器(或者说集群)上所采用的方法,主要为应对高吞吐量与大数据量的应用场景提供了方法. 和既有的分库分表.分区方案相比,MongoDB的最大 ...

  2. MongoDB 分片的原理、搭建、应用

    一.概念: 分片(sharding)是指将数据库拆分,将其分散在不同的机器上的过程.将数据分散到不同的机器上,不需要功能强大的服务器就可以存储更多的数据和处理更大的负载.基本思想就是将集合切成小块,这 ...

  3. MongoDB 分片的原理、搭建、应用 !

    MongoDB 分片的原理.搭建.应用   一.概念: 分片(sharding)是指将数据库拆分,将其分散在不同的机器上的过程.将数据分散到不同的机器上,不需要功能强大的服务器就可以存储更多的数据和处 ...

  4. MongoDB 分片集群实战

    背景 在如今的互联网环境下,海量数据已随处可见并且还在不断增长,对于如何存储处理海量数据,比较常见的方法有两种: 垂直扩展:通过增加单台服务器的配置,例如使用更强悍的 CPU.更大的内存.更大容量的磁 ...

  5. MongoDB 分片的原理、搭建、应用 (转)

    一.概念: 分片(sharding)是指将数据库拆分,将其分散在不同的机器上的过程.将数据分散到不同的机器上,不需要功能强大的服务器就可以存储更多的数据和处理更大的负载.基本思想就是将集合切成小块,这 ...

  6. MongoDB分片集群-Sharded Cluster

    分片概念 分片(sharding)是一种跨多台机器分布数据的方法, MongoDB使用分片来支持具有非常大的数据集和高吞吐量操作的部署. 换句话说:分片(sharding)是指将数据拆分,将其分散存在 ...

  7. MongoDB 分片管理

    在MongoDB(版本 3.2.9)中,分片集群(sharded cluster)是一种水平扩展数据库系统性能的方法,能够将数据集分布式存储在不同的分片(shard)上,每个分片只保存数据集的一部分, ...

  8. MongoDB 分片管理(不定时更新)

    背景: 通过上一篇的 MongoDB 分片的原理.搭建.应用 大致了解了MongoDB分片的安装和一些基本的使用情况,现在来说明下如何管理和优化MongoDB分片的使用. 知识点: 1) 分片的配置和 ...

  9. Elasticsearch和MongoDB分片及高可用对比

    本文旨在对比Elasticsearch和MongoDB高可用和分片的实现机制. Elasticsearch ES天生就是分布式的,那她又是如何做到天生分布式的? 通过ES官方指南我们可以知道: 一个运 ...

随机推荐

  1. Python【input()函数】

    运用input函数搜集信息 input()函数结果的赋值name = input('请输入你的名字:') #将input()函数的执行结果(收集的信息)赋值给变量name input()函数的使用场景 ...

  2. 2019牛客暑期多校训练营(第四场)A meeting(dfs或dp,dp待更新)

    示例1: 输入: 4 21 23 13 42 4 输出:2 说明: They can meet at place 1 or 3. 题意:从K个点到达不联通图某个点需要的最短时间,这个最短时间是这K个人 ...

  3. Codeforces Round #419 (Div. 1) (ABCD)

    1. 815A Karen and Game 大意: 给定$nm$矩阵, 每次选择一行或一列全部减$1$, 求最少次数使得矩阵全$0$ 贪心, $n>m$时每次取一列, 否则取一行 #inclu ...

  4. manacher 算法(最长回文串)

    manacher算法: 定义数组p[i]表示以i为中心的(包含i这个字符)回文串半径长 将字符串s从前扫到后for(int i=0;i<strlen(s);++i)来计算p[i],则最大的p[i ...

  5. input 被checked时和label配合的妙用

    input 和label配合的妙用 1:作为文字隐藏与否的开关: 如下代码:对div里面所包含的文字较多,一开始只展示小部分,当用户点击按钮时,进行全部内容的展示(按钮是以向下隐藏箭头的图片) htm ...

  6. 回忆一下Node(随时更改,想到什么写什么)

    什么是Node? Node.js 是一个基于Chrome V8 引擎的JavaScript运行环境 Node.js使用了一个事件驱动.非阻塞式I/O的模型,使其轻量又高效 事件驱动: 任务执行,发布者 ...

  7. stm32 SPI-FLASH W25Q64

    The W25Q64BV array is organized into 32,768 programmable pages of 256-bytes each. Up to 256 bytes ca ...

  8. py网络编程学习笔记

    一.异常处理 异常就是程序运行时发生错误的信号(在程序出现错误时,则会产生一个异常,若程序没有处理它,则会抛出该异常,程序的运行也随之终止),在python中,错误触发的异常如下 而错误分为两种: 1 ...

  9. java.lang.NoClassDefFoundError: Could not initialize class xxx

    感慨:啊啊啊啊啊啊啊啊啊啊,这个问题弄了我好久,整整一天!!! 概述:原本是调用公司自己写的jar包的工具类.在其他项目都能调用,一模一样的套用过来就是不行.问了一些同事他们也不知道怎么解决. 然后百 ...

  10. ubuntu16搭建LAMP环境

    准备工作: 安装ubuntu16虚拟机,可以正常访问网络 更新为国内源(下载快一些) 1.安装apache sudo apt-get install apache2 然后打开我们的浏览器,访问一下 1 ...