写在前面的话

上一节的复制集也就是主从能够解决我们高可用和数据安全性问题,但是无法解决我们的性能瓶颈问题。所以针对性能瓶颈,我们需要采用分布式架构,也就是分片集群,sharding cluster!

架构说明

架构规划:

我们这里准备了 4 台虚拟机:192.168.200.101-104

在分片集群中,mongodb 包含以下三个角色:mongos(router),config servershard

mongos 节点:用于服务连接,不存数据,有点像路由器。

config server 节点:保存集群相关配置以及数据到底存放在那个分片,所以数据非常重要,需要一主两从。

shard 节点:数据存储节点,由多个集群组成,每个集群可以为一主一从一arbiter。

端口设计:

shard 集群1:192.168.200.101-103:27001

shard 集群2:192.168.200.101-103:27002

config 集群:192.168.200.101-103:28001

mongos:192.168.200.104:29000

默认主尽量分开,这样能够避免压力都在一台机器上面。这只能算是一个简陋的集群。

架构如图:

配置分片集群

1. 所有节点初始化安装:

# 关闭大页内存机制
if test -f /sys/kernel/mm/transparent_hugepage/enabled; then
echo never > /sys/kernel/mm/transparent_hugepage/enabled
fi if test -f /sys/kernel/mm/transparent_hugepage/defrag; then
echo never > /sys/kernel/mm/transparent_hugepage/defrag
fi # 查看设置结果
cat /sys/kernel/mm/transparent_hugepage/enabled
cat /sys/kernel/mm/transparent_hugepage/defrag # 初始化目录
mkdir -p /data/{backup,data,logs,packages,services}
mkdir -p /data/packages/mongodb # 将安装包上传到:/data/packages/mongodb 下 # 解压
cd /data/packages/mongodb
tar -zxf mongodb-linux-x86_64-rhel70-4.2.1.tgz
mv mongodb-linux-x86_64-rhel70-4.2.1 /data/services/mongodb # 配置基础目录
cd /data/services/mongodb
rm -f LICENSE-Community.txt MPL-2 README THIRD-PARTY-NOTICES THIRD-PARTY-NOTICES.gotools

2. 所有节点配置环境变量:

cat >> /etc/profile << EOF
# mongodb env
export MONGODB_HOME='/data/services/mongodb'
export PATH=\$PATH:\${MONGODB_HOME}/bin
EOF # 环境变量生效
source /etc/profile # 查看版本
mongo --version

3. 101-103 节点初始化目录设计:

cd /data/services
mkdir -p mongodb-shard1/{data,config,logs}
mkdir -p mongodb-shard2/{data,config,logs}
mkdir -p mongodb-config/{data,config,logs}

结构如下:

/data/services/
├── mongodb -- mongodb 安装目录
│   └── bin
├── mongodb-config -- config 节点根目录
│   ├── config
│   ├── data
│   └── logs
├── mongodb-shard1 -- shard 1 节点根目录
│   ├── config
│   ├── data
│   └── logs
└── mongodb-shard2 -- shard 2 节点根目录
├── config
├── data
└── logs

4. 101-103 节点构建 shard 1 集群:

添加配置:注意红色部分根据节点修改,蓝色部分为需要注意的

cat > /data/services/mongodb-shard1/config/shard.conf << EOF
# 系统相关
systemLog:
destination: file
path: "/data/services/mongodb-shard1/logs/shard.log"
logAppend: true # 存储相关
storage:
journal:
enabled: true
dbPath: "/data/services/mongodb-shard1/data"
directoryPerDB: true
wiredTiger:
engineConfig:
cacheSizeGB: 1
directoryForIndexes: true
collectionConfig:
blockCompressor: zlib
indexConfig:
prefixCompression: true # 网络相关
net:
bindIp: 192.168.200.101,127.0.0.1
port: 27001 # 复制相关
replication:
oplogSizeMB: 2048
replSetName: my_shard_1 # 分片相关
sharding:
clusterRole: shardsvr # 进程相关
processManagement:
fork: true
pidFilePath: "/data/services/mongodb-shard1/logs/shard.pid"
EOF

启动节点:

mongod -f /data/services/mongodb-shard1/config/shard.conf

上登录配置复制集:

mongo --port 27001

配置:注意蓝色部分为我们配置文件中定义的。

use admin

config = {_id: "my_shard_1", members:[
{_id: 0, host: '192.168.200.101:27001'},
{_id: 1, host: '192.168.200.102:27001'},
{_id: 2, host: '192.168.200.103:27001', "arbiterOnly": true}
]} rs.initiate(config) rs.status()
rs.isMaster()

结果如图:

5. 101-103 节点构建 shard 2 集群,和 1 大致相同,注意目录,my_shard_2 名字,端口就行。

config = {_id: "my_shard_2", members:[
{_id: 0, host: '192.168.200.101:27002', "arbiterOnly": true},
{_id: 1, host: '192.168.200.102:27002'},
{_id: 2, host: '192.168.200.103:27002'}
]}

102 上面登录初始化复制集,结果如下:

6. 101-103 节点配置 config:

配置文件:红色部分为不通节点需要修改的,蓝色部分为需要注意的

cat > /data/services/mongodb-config/config/config.conf << EOF
# 系统相关
systemLog:
destination: file
path: "/data/services/mongodb-config/logs/config.log"
logAppend: true # 存储相关
storage:
journal:
enabled: true
dbPath: "/data/services/mongodb-config/data"
directoryPerDB: true
wiredTiger:
engineConfig:
cacheSizeGB: 1
directoryForIndexes: true
collectionConfig:
blockCompressor: zlib
indexConfig:
prefixCompression: true # 网络相关
net:
bindIp: 192.168.200.101,127.0.0.1
port: 28001 # 复制相关
replication:
oplogSizeMB: 2048
replSetName: configReplSet # 分片相关
sharding:
clusterRole: configsvr # 进程相关
processManagement:
fork: true
pidFilePath: "/data/services/mongodb-config/logs/config.pid"
EOF

启动服务:

mongod -f /data/services/mongodb-config/config/config.conf

在 103 登录节点初始化:

mongo --port 28001 admin

配置:

config = {_id: "configReplSet", members:[
{_id: 0, host: '192.168.200.101:28001'},
{_id: 1, host: '192.168.200.102:28001'},
{_id: 2, host: '192.168.200.103:28001'}
]} rs.initiate(config) rs.isMaster()

结果如图:

7. 此时 101-103 三台服务器的服务运行如下:

8. 此时三个集群以及建立完成,但是它们是完全隔离的三个集群。所以需要另外一个东西把它们关联起来。

在 104 上面新增 mongos:

cd /data/services/
mkdir -p mongodb-mongos1/{data,logs,config}

添加配置文件:注意红色部分,名称,还有 config 集群各个节点的地址

cat > /data/services/mongodb-mongos1/config/mongos.conf << EOF
# 系统相关
systemLog:
destination: file
path: "/data/services/mongodb-mongos1/logs/mongos.log"
logAppend: true # 网络相关
net:
bindIp: 192.168.200.104,127.0.0.1
port: 29001 # 分片相关
sharding:
configDB: configReplSet/192.168.200.101:28001,192.168.200.102:28001,192.168.200.103:28001 # 进程相关
processManagement:
fork: true
pidFilePath: "/data/services/mongodb-mongos1/logs/mongos.pid"
EOF

启动节点:注意这里启动节点和启动 mongodb 不同

mongos -f /data/services/mongodb-mongos1/config/mongos.conf

9. 连接 mongos 添加 shard:

mongo --port 29001 admin

配置:

db.runCommand( { addshard : "my_shard_1/192.168.200.101:27001,192.168.200.102:27001,192.168.200.103:27001",name:"shard1"} )
db.runCommand( { addshard : "my_shard_2/192.168.200.101:27002,192.168.200.102:27002,192.168.200.103:27002",name:"shard2"} )

如图:

查看分片:

db.runCommand({listshards:1})

如图:

也可以查看分片集群状态:

sh.status()

至此,分片集群搭建完成!

使用集群

当我们在存数据的时候,加入一张表有一千万数据,按照系统自带的分片策略,可能导致多个 shard 集群数据不均,然后整个集群的性能得不到充分的利用。

针对这个问题,mongdb 目前提供了两种分片规则配置:Range 和 Hash。

Range:根据某个字段将某范围内的放到指定节点,如 id < 50000 的放到集群 1 这样。该分片方式存在一个问题,因为数据的热度可能不一样,有可能最新的数据访问频繁程度高一些,这样导致请求大多可能都落在数据比较新的集群,导致服务器忙的忙死,闲的闲死,无法做到负载的均衡。

Hash:通过一定的算法将数据存到某个集群,这样的数据是随机的,也不知道访问的数据到底在哪一个。这样数据量越多,那么服务器性能占用就越接近均衡。

Range 配置(mongos 节点):

1. 给指定库(hello)开启分片功能:

use admin
db.runCommand({enablesharding: "hello"})

2. 给指定库(hello)下面指定表(t1)创建索引和分片:

# 创建索引
use hello
db.t1.ensureIndex({id:1}) # 开启分片
use admin
db.runCommand({shardcollection: "hello.t1", key: {id:1}})

3. 录入100万数据:注意,如果数据量太少可能只会落在一个节点

use hello
for(i=1;i<=1000000;i++){db.t1.insert({"id":i,"name":"zhangsan","date":new Date()})}

查看记录数量:

db.t1.count()

4. 去分片节点查看数据:

注意,当数据量太小装满一个 chunk,所以最终数据还是在一个 shard 上。

Hash 分片配置(推荐使用):

1. 给指定库(world)开启分片功能:

use admin
db.runCommand({enablesharding: "world"})

2. 给指定库(world)下面指定表(t2)创建索引和分片:

# 创建索引
use world
db.t2.ensureIndex({id: "hashed"}) # 分片
use admin
sh.shardCollection("world.t2", {id: "hashed"})

3. 录入 10 万数据:

use world
for(i=1;i<100000;i++){db.t2.insert({"id":i,"name":"zhangsan","date":new Date()})}

4. 登录 shard 节点查看数据:

use world
db.t2.count()

shard 1:

shard 2:

可以看到,大致相当,几百条数据差异不用在意。

其它命令:

# 查看所有开启分片的库
db.databases.find( { "partitioned": true } ) # 查看分片的键
db.collections.find().pretty()

balancer

mongodb 会自动巡查所有 shard 节点上的 chunk 情况,并自动迁移。如节点删除的时候。

但是迁移存在一个问题,会产生大量的 IO,如果是在业务繁忙期间,会影响业务。

于是我们便需要 balancer 来对 chunk 迁移的时间进行调整。

设置方法:

use config

# 查看状态
sh.getBalancerState() # 开启
sh.setBalancerState(true) # 设置时间
db.settings.update({ _id : "balancer" }, { $set : { activeWindow : { start : "3:00", stop : "5:00" } } }, true ) # 查看设置结果
sh.getBalancerWindow()

当然,也可以通过查看 shard 状态查看:

sh.status()

如图:

该操作需要避开备份和业务高峰期!至此,分破集群大致说到这里。

MongoDB for OPS 03:分片 shard 集群的更多相关文章

  1. Windows下Mongo分片及集群

    这里简单介绍一下windows下mongodb的分片设置和集群搭建,希望能够为迷茫的新手起到一点点作用.其实windows下与linux下思路是一致的,只是绑定时的ip,与端口号不同,linux下可以 ...

  2. Redis基于客户端分片的集群案例(待实践)

    说明: 下面的示例基本都是基于Linux去实现,目的是为了环境的统一,以便于把性能调整到最优.且基于Java.建议生产环境不要使用Windows/Mac OS这些. 在Java领域,基于客户端进行分片 ...

  3. (转)MongoDB分片实战 集群搭建

    环境准备 Linux环境 主机 OS 备注 192.168.32.13 CentOS6.3 64位 普通PC 192.168.71.43 CentOS6.2 64位 服务器,NUMA CPU架构 Mo ...

  4. MongoDB集群搭建---副本和分片(伪集群)

    参考地址:https://blog.csdn.net/weixin_43622131/article/details/105984032 已配置好的所有的配置文件下载地址:https://files. ...

  5. [原创]在Docker上部署mongodb分片副本集群。

    一.安装docker. 请参考:http://www.cnblogs.com/hehexiaoxia/p/6150584.html 二.编写dockerfile. 1.在根目录下创建mongod的do ...

  6. MongoDB在单机上搭建分片副本集群(windows)

    ------------------------------1.安装MongoDB...... ------------------------------2.准备好文件夹 --config:配置文件 ...

  7. MongoDB 4.0 开发环境搭建集群

    环境准备 Liunx 服务器一台 以下示例为单机版安装集群, 没有分片 MongoDB 安装 1.下载 MongoDB tgz 安装包: 可以从下载中心下载: https://www.mongodb. ...

  8. 关于MongoDb Replica Set的故障转移集群——实战篇

    如果你还不了解Replica Set的相关理论,请猛戳传送门阅读笔者的上一篇博文. 因为Replica Set已经属于MongoDb的进阶应用,下文中关于MongoDb的基础知识笔者就不再赘述了,请参 ...

  9. 关于MongoDb Replica Set的故障转移集群——理论篇

    自从10 gen用Replica Set取代Master/Slave方案后生活其实已经容易多了,但是真正实施起来还是会发现各种各样的小问题,如果不小心一样会栽跟头. 在跟Replica Set血拼几天 ...

随机推荐

  1. 查看 Java Web 开发环境软件是 32 位还是 64 位

    这里 Java Web 的开发环境指的是:Java + Tomcat + Eclipse 查看 Java 的版本 java -version 结果: JDK 版本位 1.8.0\_221 而且是 64 ...

  2. pytorch中的pack_padded_sequence和pad_packed_sequence用法

    pack_padded_sequence是将句子按照batch优先的原则记录每个句子的词,变化为不定长tensor,方便计算损失函数. pad_packed_sequence是将pack_padded ...

  3. 【转】开发一个这样的 APP 要多长时间?

    作者:蒋国刚 www.cnblogs.com/guogangj/p/4676836.html 呵呵. 这是一个“如有雷同,纯属巧合”的故事,外加一些废话,大家请勿对号入座.开始了…… 我有些尴尬地拿着 ...

  4. java之方法的重载(overload)

    什么是重载? 在任何一个类中,允许存在一个以上的同名的方法,只要它们的参数个数或者参数类型不同即可: 重载的特点? 与返回值无关,只看参数列表.且参数列表必须不同(参数个数或参数类型).调用时,根据方 ...

  5. FIRST 集与 FOLLOW 集

    文法: S→ABc A→a|ε B→b|ε First 集合求法: 能 由非终结符号推出的所有的开头符号或可能的ε,但要求这个开头符号是终结符号.如此题 A 可以推导出 a 和ε,所以 FIRST(A ...

  6. Springboot关于tomcat容器配置、三大组件配置、拦截器配置

    原文地址:http://www.javayihao.top/detail/172 1.tomcat配置 Springboot默认使用的就是嵌入式servlet容器即tomcat,对于web项目,如果使 ...

  7. ASP.NET Repeater与Button 以及viewState 和 hyperLink

    例如Repeater重复项 我们要在一个表里作删除以及修改 我们可以在Repeater中添加button控件前台代码:button有属性commandName 以及commandArgument 我们 ...

  8. 微信小程序之左右布局

    本文以一个简单的小例子,简述在微信小程序开发中左右布局功能的实现方式,主要涉及scroll-view ,列表数据绑定,及简单样式等内容,仅供学习分享使用. 概述 在微信小程序开发中,左右分栏(左边显示 ...

  9. java架构之-负载均衡-Ribbon 的使用

    一. 什么是负载均衡负载均衡就是分发请求流量到不同的服务器.负载均衡一般分为两种:1. 服务器端负载均衡(nginx) 2. 客户端负载均衡(Ribbon) 二. spring- - cloud- - ...

  10. docker容器的学习笔记

    目录 Docker入门学习笔记(一) 1. 什么是Docker? 2. Docke的目标 3. Docker通常应用场景 4. Docker的基本组成 补:Docker容器相关技术简介 安装Docke ...