哨兵机制是 Redis 高可用中重要的一环,其核心是 通过高可用哨兵集群,监控主从复制的健康状态,并实现自动灾备

哨兵集群以集群的方式进行部署,这种分布式特性具有以下优点:

  • 避免系统中存在单点,防止灾备机制失效
  • 切换 master 必须经过多个 sentinel 节点协商同意,避免出现误判

为了保证 Redis 服务的高可用,哨兵机制提供了以下功能:

  • 监控Monitoring:实时监控主从节点的健康状况
  • 通知Notification:通过事件 API 将服务实例异常情况即时告知监听者
  • 自动灾备Automatic failover:当 master 节点失效时从 slave 中选举出新的 master
  • 服务发现Configuration provider:客户端通过哨兵集群获取 master 实例信息,在发生自动灾备时能及时将 master 变化告知客户端

相关配置

建立哨兵集群的配置相对简单,只需配置以下选项即可:

sentinel monitor <master-name> <ip> <port> <quorum>

 需要监控的 master 节点的信息(由于 sentinel 会自动发现 slave 节点信息,因此无需配置)

  • master-name 用于区分不同的 master 节点,会被用于 master 发现
  • quorum 是启动故障转移failover时,所需的最小 sentinel 数量
 故障转移前需要选举出一个 leader 节点执行 master 切换,为了达成共识,该过程必须有半数以上的节点majority参与

 假设当前哨兵集群总共有 m 个节点,当 quorum 设置为 n 时(nm

  • 若同时有 n 个节点判断当前 master 已经下线,则其中的某个 sentinel 会尝试发起故障转移
  • 实际执行故障转移需要进行 leader 选举,因此仅当集群中至少有 m/2 以上的 sentinel 节点可用时,故障转移才可能启动

 简而言之,quorum 仅影响故障检测流程,用于控制发起故障转移的时机,但是无法决定 failover 是否会被执行

 因此,哨兵实例应不少于 3 个,否则一旦某个哨兵节点失效后,即便 quorum 设置为 1,依然无法启动 faiover

sentinel down-after-milliseconds <master-name> <milliseconds>

 当某个 redis 节点超过该时间无法正常响应(对 PING 请求没有响应或返回错误码),sentinel 会认为其已经下线

sentinel parallel-syncs <master-name> <numslaves>

 将 slave 中的某个节点中提升为 master 后,剩余节点立即重连新 master 的数量

 重新同步会导致 slave 节点从 master 批量同步数据,间接会造成 slave 的短暂停顿

 假如当前总共有 m 个 slave 节点,当 parallel-syncs 设置为 n 时,则 failover 会将 slave 分为 m/n 批进行调整

 该值越小,则 failover 所需的时间越长,但对访问 slave 客户端的影响越小

sentinel failover-timeout <master-name> <milliseconds>

 故障转移对重试间隔,默认值为 3min,该选项会影响:

  • sentinel 对同个 master 发起 failover 后,再次重试的时间间隔 (2 * failover-timeout)
  • sentinel 发现 salve 配置过期后,将其指向新的 master 所需的时间
  • 取消一个正在进行的 failover 流程所需的时间
  • failover 等待 slave 重连新 master 完成的时间

配置发现

仔细观察哨兵配置时,会发现缺失了 其他哨兵节点信息从节点信息

这是因为哨兵机制本身支持配置发现,每个哨兵节点能够自行从监控的 master 节点处获取到上面两项信息:

哨兵发现

哨兵利用了 Redis 的 发布/订阅 实现来实现互相通信,哨兵和主库建立连接后:

  • 向主库上名为 __sentinel__:hello 的频道发布消息,将自己的 IP 和端口告知其他节点
  • 订阅 __sentinel__:hello 消息,获得其他哨兵发布的连接信息

当多个哨兵实例都在主库上做了发布和订阅操作后,它们互相感知到彼此的 IP 地址和端口。

因此扩容哨兵集群十分简单,只需要启动一个新的哨兵节点即可,剩余的操作交由自动发现机制完成即可。

从库发现

哨兵向主库发送 INFO 命令,主库接受到这个命令后,就会把从库列表返回给哨兵。

然后哨兵根据从库列表中的连接信息,和每个从库建立连接,并在这个连接上持续地对从库进行监控。

同时,哨兵也会向从库发送 INFO 命令以获取以下信息:

  • run_id : 从库的运行ID
  • slave_priority : 从库的优先级
  • slave_repl_offset : 从库的复制偏移量

节点下线

哨兵永远不会忘记已经见过的节点,无论这个节点是哨兵还是从库。如果需要下线集群中的节点时,需要用到SENTINEL RESET命令:

  • 当需要下线哨兵节点时,首先停止该节点进程,然后在剩余哨兵节点上执行SENTINEL RESET *更新集群信息
  • 当需要下线某个 master 的从库时,首先停止该节点进程,然后在所有哨兵节点上执行SENTINEL RESET <master-name>更新监控列表

状态监控

为了保证主库的可用性,哨兵集群会以一定的间隔向主从库发送PING命令,并根据命令的返回结果判断主库是否健康:

  • 返回值为+PONG-LOADING-MASTERDOWN,则认为这个节点健康
  • 返回其他值或没有响应,则认为这个节点不健康

不健康的状态持续超过 down-after-milliseconds,则认为这个节点已经下线。

还有一种特殊情况:某个本应是 master 的节点,在INFO命令返回值中将自己标榜为 slave,那么哨兵也会认为该节点已经下线。

为了降低误判率,哨兵集群将节点下线分为两个阶段:

  • 主观下线SDOWN:某个 sentinel 实例认为该节点已经下线
  • 客观下线ODOWN:某个 sentinel 通过 SENTINEL is-master-down-by-addr 命令向其他节点询问,发现同时有 quorum 个 sentinel 实例认为该节点已经下线

只有 master 节点会被标记为ODOWN,并且仅当 master 节点被标记为ODOWN时才肯会触发 failover 流程。而 slave 与 sentinel 节点仅会被标记为SDOWN

故障转移

故障转移过程被设计为一个异步的状态机,其主要步骤如下:

void sentinelFailoverStateMachine(sentinelRedisInstance *ri) {
serverAssert(ri->flags & SRI_MASTER); if (!(ri->flags & SRI_FAILOVER_IN_PROGRESS)) return; switch(ri->failover_state) {
// 选举 leader
case SENTINEL_FAILOVER_STATE_WAIT_START:
sentinelFailoverWaitStart(ri);
break;
// 从已下线 master 的 slave 中挑选出一个候选节点
case SENTINEL_FAILOVER_STATE_SELECT_SLAVE:
sentinelFailoverSelectSlave(ri);
break;
// 向候选节点发送 SLAVEOF NO ONE 命令将其转化为 master 节点
case SENTINEL_FAILOVER_STATE_SEND_SLAVEOF_NOONE:
sentinelFailoverSendSlaveOfNoOne(ri);
break;
// 通过 INFO 命令检查新的 master 节点是否已经就绪
case SENTINEL_FAILOVER_STATE_WAIT_PROMOTION:
sentinelFailoverWaitPromotion(ri);
break;
// 向剩余的 slave 节点发送 SLAVEOF 命令指向新的 master
case SENTINEL_FAILOVER_STATE_RECONF_SLAVES:
sentinelFailoverReconfNextSlave(ri);
break;
}
}

选举 leader

当 master 被判断为客观下线时,会触发一次故障转移。为了保证系统最终能够收敛于一致的状态,每次对主从配置进行修改前,都会将变更关联到一个全局唯一的单调递增版本号 —— 配置纪元epochepoch 较小的变更会被更大的变更覆盖,从而保证来并发修改的分布式一致性

此外,哨兵集群每个会为每个epoch选举出一个 leader 来实施配置变更,避免发生不必要的故障转移:

选举通过命令SENTINEL IS-MASTER-DOWN-BY-ADDR <ip> <port> <current-epoch> <runid>完成:

char *sentinelVoteLeader(sentinelRedisInstance *master, uint64_t req_epoch, char *req_runid, uint64_t *leader_epoch) {

    // 如果投票请求的 epoch 比已知更大,则更新本地的 epoch
if (req_epoch > sentinel.current_epoch) {
sentinel.current_epoch = req_epoch;
sentinelFlushConfig();
sentinelEvent(LL_WARNING,"+new-epoch",master,"%llu",
(unsigned long long) sentinel.current_epoch);
} // 如果投票请求的的 epoch 比当前 leader 更大
if (master->leader_epoch < req_epoch && sentinel.current_epoch <= req_epoch)
{
// 根据 FCFS 原则,增将 epoch 的票投给该 sentinel
sdsfree(master->leader);
master->leader = sdsnew(req_runid);
master->leader_epoch = sentinel.current_epoch;
sentinelFlushConfig();
sentinelEvent(LL_WARNING,"+vote-for-leader",master,"%s %llu",
master->leader, (unsigned long long) master->leader_epoch); // 如果是接收到来自其他 sentinel 的投票请求,则更新 failover 开始时间
// 避免本实例在 failover timeout 时间内触发不必要的投票
if (strcasecmp(master->leader,sentinel.myid))
master->failover_start_time = mstime()+rand()%SENTINEL_MAX_DESYNC;
} // 小于 sentinel.current_epoch 的请求会被忽略 // 更新 leader 信息
*leader_epoch = master->leader_epoch;
return master->leader ? sdsnew(master->leader) : NULL;
}

该选举流程是 Raft 协议的简化版,有兴趣的朋友可以深入了解。

筛选 slave

为了保证新的 master 拥有最新的状态,leader 会排除以下 slave 节点:

  • 排除所有处于主观下线状态的节点(节点健康)
  • 排除最近 5 秒内没有响应 leader 发出 INFO 命令的节点(通信正常)
  • 排除与原 master 断线时间超过 down-after-milliseconds * 10 的节点(副本较新)

最后,按照 slave_priorityslave_repl_offsetrun_id 对进行排序,选择其中优先级最高、偏移量最大、运行ID最小的节点作为新的 master。

提升 master

首先调用sentinelFailoverSendSlaveOfNoOne提升候选节点为 master:

void sentinelFailoverSendSlaveOfNoOne(sentinelRedisInstance *ri) {
int retval; // 如果候选节点不可用,则一直尝试直到 failover 超时
if (ri->promoted_slave->link->disconnected) {
if (mstime() - ri->failover_state_change_time > ri->failover_timeout) {
sentinelEvent(LL_WARNING,"-failover-abort-slave-timeout",ri,"%@");
sentinelAbortFailover(ri);
}
return;
} // 发送 SLAVEOF ON ONE 命令并等待其转化为 master
retval = sentinelSendSlaveOf(ri->promoted_slave,NULL,0);
if (retval != C_OK) return;
sentinelEvent(LL_NOTICE, "+failover-state-wait-promotion",
ri->promoted_slave,"%@");
ri->failover_state = SENTINEL_FAILOVER_STATE_WAIT_PROMOTION;
ri->failover_state_change_time = mstime();
}

之后调用sentinelFailoverReconfNextSlave令剩余 slave 复制新的 master 节点:

void sentinelFailoverReconfNextSlave(sentinelRedisInstance *master) {
// ... // 批量调整 slave 节点,并保证每批数量不超过 parallel syncs 配置
di = dictGetIterator(master->slaves);
while(in_progress < master->parallel_syncs &&
(de = dictNext(di)) != NULL)
{
sentinelRedisInstance *slave = dictGetVal(de);
int retval; // 跳过调整完成的节点
if (slave->flags & (SRI_PROMOTED|SRI_RECONF_DONE)) continue; // 如果 slave 长时间没有完成配置修改,则依然认为已经完成
// 哨兵节点会在后续流程中检测出配置异常并进行修复
if ((slave->flags & SRI_RECONF_SENT) &&
(mstime() - slave->slave_reconf_sent_time) >
SENTINEL_SLAVE_RECONF_TIMEOUT)
{
sentinelEvent(LL_NOTICE,"-slave-reconf-sent-timeout",slave,"%@");
slave->flags &= ~SRI_RECONF_SENT;
slave->flags |= SRI_RECONF_DONE;
} // 跳过已发出过命令或已经下线的 slave 节点
if (slave->flags & (SRI_RECONF_SENT|SRI_RECONF_INPROG)) continue;
if (slave->link->disconnected) continue; // 发送 SLAVEOF 令其复制新的 master
retval = sentinelSendSlaveOf(slave,
master->promoted_slave->addr->ip,
master->promoted_slave->addr->port);
if (retval == C_OK) {
slave->flags |= SRI_RECONF_SENT;
slave->slave_reconf_sent_time = mstime();
sentinelEvent(LL_NOTICE,"+slave-reconf-sent",slave,"%@");
in_progress++;
}
} // 检查是否已经完成所有 slave 的配置修改
sentinelFailoverDetectEnd(master);
}

当已下线的 master 再次上线时,哨兵节点会检测出其配置已经失效,并会将其作为 slave 对待,令其复制新的 master 数据。这也意味着该节点上未被同步到新 master 的那部分数据会永远丢失。

为了减少数据丢失,可以配合参数min-replicas-to-writemin-replicas-max-lag阻止客户端向失去 slave 的 master 节点写入数据。

事件API

为了方便客户端感知集群状态变化,哨兵集群定义了一系列的事件event,客户端可以通过订阅 sentinel 节点上与这些事件同名的 channel 来监听状态变化。

大部分事件的内容格式如下(@ 之后的部分是可选的):

<instance-type> <name> <ip> <port> @ <master-name> <master-ip> <master-port>

这里列出部分可供监听事件:

  • switch-master : 最新的 master 节点信息,其内容为 <master-name> <oldip> <oldport> <newip> <newport>
  • +sdown : 某节点进入主观下线状态
  • -sdown : 某节点退出主观下线状态
  • +odown : 某节点进入客观下线状态
  • -odown : 某节点退出客观下线状态
  • +tilt : 哨兵集群进入 TILT 模式
  • -tilt : 哨兵集群退出 TILT 模式
  • +reset-master : 重置了某个 master-name 下的监控信息
  • +failover-detected : 感知到故障转移(可能是由 sentinel 发起的,也可能是人工将某个 slave 节点提升为 master)
  • failover-end : 故障转移结束,并且所有 slave 已经指向新 master
  • failover-end-for-timeout : 故障转移结束超时,部分 slave 未指向新 master,集群状态尚需时间完成收敛

如果需要订阅所有事件,只需要执行命令PSUBSCRIBE *即可。

JedisSentinelPool

为了加深印象,下面通过分析 jedis-3.3.0JedisSentinelPool 的源码来观察如何使用事件 API。

JedisSentinelPool启动时调用初始化函数initSentinels获取 master 信息:

private HostAndPort initSentinels(Set<String> sentinels, final String masterName) {
HostAndPort master = null; // 遍历 sentinel 信息并建立连接
for (String sentinel : sentinels) {
final HostAndPort hap = HostAndPort.parseString(sentinel); Jedis jedis = null;
try {
jedis = new Jedis(hap.getHost(), hap.getPort(), sentinelConnectionTimeout, sentinelSoTimeout);
// ... // 发送 get-master-addr-by-name 命令获取 master 节点
List<String> masterAddr = jedis.sentinelGetMasterAddrByName(masterName); if (masterAddr == null || masterAddr.size() != 2) {
log.warn("Can not get master addr, master name: {}. Sentinel: {}", masterName, hap);
continue;
} // 获取到 master 节点信息后退出
master = toHostAndPort(masterAddr);
break;
} catch (JedisException e) {
log.warn(
"Cannot get master address from sentinel running @ {}. Reason: {}. Trying next one.", hap, e);
} finally {
if (jedis != null) {
jedis.close();
}
}
} if (master == null) {
// 无法获取到 master 信息,此处会抛出异常
// ...
} // 启动监听线程,监听所有 sentinel,保证及时感知到集群变化
for (String sentinel : sentinels) {
final HostAndPort hap = HostAndPort.parseString(sentinel);
MasterListener masterListener = new MasterListener(masterName, hap.getHost(), hap.getPort());
masterListener.setDaemon(true);
masterListeners.add(masterListener);
masterListener.start();
} return master;
}

MasterListener类通过事件 API 监听 master 节点变化并在重新初始化连接池:

class MasterListener extends Thread {

  protected String masterName;
protected String host;
protected int port;
protected long subscribeRetryWaitTimeMillis = 5000;
protected volatile Jedis j;
protected AtomicBoolean running = new AtomicBoolean(false); public MasterListener(String masterName, String host, int port) {
super(String.format("MasterListener-%s-[%s:%d]", masterName, host, port));
this.masterName = masterName;
this.host = host;
this.port = port;
} @Override
public void run() { running.set(true); while (running.get()) { try {
// 与 sentinel 建立连接
j = new Jedis(host, port, sentinelConnectionTimeout, sentinelSoTimeout); // ... // 再次获取 master 信息
List<String> masterAddr = j.sentinelGetMasterAddrByName(masterName);
if (masterAddr == null || masterAddr.size() != 2) {
log.warn("Can not get master addr, master name: {}. Sentinel: {}:{}.", masterName, host, port);
} else {
// 如果 master 发生变化则重新重新初始化连接池
initPool(toHostAndPort(masterAddr));
} // 监听 +switch-master 事件感知 master 节点变化
j.subscribe(new JedisPubSub() {
@Override
public void onMessage(String channel, String message) {
// master 发生了变化
String[] switchMasterMsg = message.split(" ");
if (switchMasterMsg.length > 3) {
// 只处理与当前 master-name 相关的信息
if (masterName.equals(switchMasterMsg[0])) {
// 如果 master 发生变化则重新重新初始化连接池
initPool(toHostAndPort(Arrays.asList(switchMasterMsg[3], switchMasterMsg[4])));
}
} else {
log.error(
"Invalid message received on Sentinel {}:{} on channel +switch-master: {}", host, port, message);
}
}
}, "+switch-master"); } catch (JedisException e) {
if (running.get()) {
// 连接断开后,等待 5s 重连
log.error("Lost connection to Sentinel at {}:{}. Sleeping 5000ms and retrying.", host, port, e);
try {
Thread.sleep(subscribeRetryWaitTimeMillis);
} catch (InterruptedException e1) {
log.error("Sleep interrupted: ", e1);
}
} else {
log.debug("Unsubscribing from Sentinel at {}:{}", host, port);
}
} finally {
if (j != null) {
j.close();
}
}
}
} public void shutdown() {
try {
log.debug("Shutting down listener on {}:{}", host, port);
running.set(false);
// This isn't good, the Jedis object is not thread safe
if (j != null) {
j.disconnect();
}
} catch (Exception e) {
log.error("Caught exception while shutting down: ", e);
}
}
}

至此,对 redis 的哨兵机制分析完毕,后续将对 redis 的一些其他细节进行分享,感谢观看。

Redis 哨兵高可用(Sentinel)的更多相关文章

  1. Part_five:Redis哨兵高可用

    redis哨兵高可用 1.redis-sentinel Redis-Sentinel是redis官方推荐的高可用性解决方案, 当用redis作master-slave的高可用时,如果master本身宕 ...

  2. Redis 复制技术和高可用sentinel(哨兵模式)

    redis的复制技术和高可用(哨兵模式) 1 复制 为什么要复制 实现数据的多副本存储,从而可以实现服务的高可用 提供更好的读性能复制技术的关键点及难点 如何指定被复制对象 增量还是全量以及如何实现增 ...

  3. Redis Sentinel安装与部署,实现redis的高可用

    前言 对于生产环境,高可用是避免不了要面对的问题,无论什么环境.服务,只要用于生产,就需要满足高可用:此文针对的是redis的高可用. 接下来会有系列文章,该系列是对spring-session实现分 ...

  4. Redis的高可用详解:Redis哨兵、复制、集群的设计原理,以及区别

    谈到Redis服务器的高可用,如何保证备份的机器是原始服务器的完整备份呢?这时候就需要哨兵和复制. 哨兵(Sentinel):可以管理多个Redis服务器,它提供了监控,提醒以及自动的故障转移的功能. ...

  5. redis主从复制与哨兵高可用

    redis主从复制 话不多说,直接看案例: 环境准备, 主从规划 主节点:6380 从节点:6381.6382 运行3个redis数据库,达到 1主 2从的配置 #主库 6379.conf port ...

  6. Redis主从高可用缓存

    nopCommerce 3.9 大波浪系列 之 使用Redis主从高可用缓存   一.概述 nop支持Redis作为缓存,Redis出众的性能在企业中得到了广泛的应用.Redis支持主从复制,HA,集 ...

  7. Redis之高可用、集群、云平台搭建

    原文:Redis之高可用.集群.云平台搭建 文章大纲 一.基础知识学习二.Redis常见的几种架构及优缺点总结三.Redis之Redis Sentinel(哨兵)实战四.Redis之Redis Clu ...

  8. Redis创建高可用集群教程【Windows环境】

    模仿的过程中,加入自己的思考和理解,也会有进步和收获. 在这个互联网时代,在高并发和高流量可能随时爆发的情况下,单机版的系统或者单机版的应用已经无法生存,越来越多的应用开始支持集群,支持分布式部署了. ...

  9. Redis 哨兵模式(Sentinel)

    上一篇我们介绍了 redis 主从节点之间的数据同步复制技术,通过一次全量复制和不间断的命令传播,可以达到主从节点数据同步备份的效果,一旦主节点宕机,我们可以选择一个工作正常的 slave 成为新的主 ...

随机推荐

  1. 实操|如何将 Containerd 用作 Kubernetes runtime

    日前专为开发者提供技术分享的又拍云 OpenTalk 公开课邀请了网易有道资深运维开发工程师张晋涛,直播分享<Containerd 上手实践 >,详细介绍 Containerd 的发展历程 ...

  2. C++ STL 优先队列 (priority_queue)

    std::priority_queue <queue> 优先队列   优先队列是一种容器适配器,根据某些严格的弱排序标准,使其第一个元素始终包含的最大元素.   这种特性类似于堆,它可以在 ...

  3. java 利用异或^进行加密

    package com.zcj.eg001; import java.nio.charset.Charset; import org.junit.Test; public class Encrypti ...

  4. luogu P1453 城市环路

    题目描述 整个城市可以看做一个N个点,N条边的单圈图(保证图连通),唯一的环便是绕城的环路.保证环上任意两点有且只有2条路径互通.图中的其它部分皆隶属城市郊区. 现在,有一位名叫Jim的同学想在B市开 ...

  5. Spring之 IOC&依赖注入

    0x01.Spring 1什么是Spring ​ Spring 是一个开源框架,是为了解决企业应用程序开发复杂性而创建的(解耦). ​ 框架的主要优势之一就是其分层架构,分层架构允许您选择使用哪一个组 ...

  6. 新编日语1234册/重排本/全册 pdf

    网上找的资源链接大部分都失效了,无奈之下只好淘宝购买.顺便分享一下吧. 链接: https://pan.baidu.com/s/1v5-osHKrIPzlgpd8yNIP5Q 提取码: kexn

  7. Excel 如何使用 函数 实现传说中的 多条件中位数 (MEDIANIFS)?

    数据科学交流群,群号:189158789,欢迎各位对数据科学感兴趣的小伙伴的加入! 实际上Excel中根本没有MEDIANIFS,但我们可以通过一些方式进行实现: 比如如下图的需求,需要求这一列中,1 ...

  8. 四:Spring Security 登录使用 JSON 格式数据

    Spring Security 登录使用 JSON 格式数据 1.基本登录方案 1.1 创建 Spring Boot 工程 1.2 添加 Security 配置 2.使用JSON登录 江南一点雨-Sp ...

  9. 性能优化(CSS优化)

    高质量的CSS代码体现在三个方面:可读性和可维护性和高性能.对于"前端工程师"来说如何平衡"追求高性能"和"可维护性"是很值得思考的问题. ...

  10. 记一次,Docker镜像1G多精简至300+M的过程

    记一次,Docker镜像1G多精简至300+M的过程 一.业务场景描述 二.Docker时区不一致,相差8小时 三.通过Docker发布的服务上传文件上传不上去 四.上传的图片带水印,水印中包含的字体 ...