基于keepalived 实现VIP转移,lvs,nginx的高可用
转自:http://www.tuicool.com/articles/eu26Vz
一、Keepalived 高可用集群的解决方案
二、VRRP的有限状态机
三、利用keepalived 实现主从VIP的切换
四、 实现在状态转变的时候自定义进行通知,
五、 实现负载均衡
六:实现nginx的高可用
一、Keepalived 高可用集群的解决方案
最初的诞生是为ipvs提供高可用的, 在后端的 realserver接收不到主节点的信息之后, keepalived能够自己调用ipvsadm命令生成规则,能够自动实现,将 主节点的VIP以及ipvs规则“拿过来”,应用在从节点上,继续为用户服务 。 还可以实现对后端realserver的健康状况做检测。
keepalived在一个节点上启动之后,会生成一个Master主进程,这个主进程又会生成两个子进程,分别是VRRP Stack(实现vrrp协议的) Checkers(检测ipvs后端realserver的健康状况检测)
二、VRRP的有限状态机
VRRP双方节点都启动以后,要实现状态转换的,刚开始启动的时候,初始状态都是BACKUP,而后向其它节点发送通告,以及自己的优先级信息,谁的优先级高,就转换为MASTER,否则就还是BACKUP,这时候服务就在状态为MASTER的节点上启动,为用户提供服务,如果,该节点挂掉了,则转换为BACKUP,优先级降低,另一个节点转换为MASTER,优先级上升,服务就在此节点启动,VIP,VMAC都会被转移到这个节点上,为用户提供服务,
实验环境:
虚拟主机版本:
CentOS6.4-i686
两个节点:
node1.limian.com 172.16.6.1
node2.limian.com 172.16.6.10
准备
1、节点一:
同步时间:
[root@node1 ~]# ntpdate 172.16.0.1
安装keepalived
[root@node1 ~]# yum -y install keepalived
2、节点二做同样的工作
三、利用keepalived 实现主从VIP的切换
3.1我们修改下keepalived的配置文件:
[root@node1 ~]# cd /etc/keepalived/
[root@node1 keepalived]# cp keepalived.conf keepalived.conf.back //先给配置文件备份一下
[root@node1 keepalived]# vim keepalived.conf
3.2全局阶段
global_defs {
notification_email { //定义邮件服务的
root@localhost //定义收件人,这里改为本机,只是测试使用
}
notification_email_from kaadmin@localhost //定义发件人,
smtp_server 127.0.0.1 //定义邮件服务器,一定不能使用外部地址
smtp_connect_timeout 30 //超时时间
router_id LVS_DEVEL
}
3.3 定义 vrrp阶段
vrrp_instance VI_1 { //定义虚拟路由,VI_1 为虚拟路由的标示符,自己定义名称
state MASTER //开启后,该节点的优先级比另一节点的优先级高,所以转化为MASTER状态
interface eth0 //所有的通告等信息都从eth0这个接口出去
virtual_router_id 7 //虚拟路由的ID,而且这个ID也是虚拟MAC最后一段的来源,这个ID号一般不能大于255,且这个ID一定不能有冲突
priority 100 //初始优先级
advert_int 1 //通告的个数
authentication { //认证机制
auth_type PASS //认证类型
auth_pass 1111 //密码,应该为随机的字符串
}
virtual_ipaddress { //虚拟地址,即VIP
172.16.6.100
}
}
这样我们主节点的配置文件就修改好了,需要复制到从节点上,再做适当的修改就可以使用了
[root@node1 keepalived]# scp keepalived.conf 172.16.6.1:/etc/keepalived/
3.4 登录到从节点 ;
[root@node2 ~]# cd /etc/keepalived/
[root@node2 keepalived]# vim keepalived.conf
vrrp_instance VI_1 {
state BACKUP //修改从节点的状态,主节点为MASTER,从节点就为BACKUP
interface eth0
virtual_router_id 7
priority 99 //修改优先级,注意从节点的优先级一定要小于主节点
advert_int 1
authentication {
auth_type PASS
auth_pass 1111
}
virtual_ipaddress {
172.16.6.100
}
}
3.5然后在主节点启动服务
[root@node1 keepalived]# service keepalived start
[root@node1 ~]# ip addr show //查看我们定义的VIP
3.6在从节点启动服务
[root@node2 keepalived]# service keepalived start
把主节点上的服务停掉,看VIP会不会到从节点上
[root@node2 ~]# ip addr show
3.7在主节点上启动服务
[root@node1 ~]# service keepalived start
[root@node1 ~]# ip addr show //检测结果发现VIP转移到了主节点
注:
默认情况下ARRP工作在“抢占模式”下,如果发现一个节点的服务停止了,另一个节点会立即把VIP和VMAC“抢过来”,如果在“非抢占模式”下,无论你的优先级过高,一个节点服务停止,另一个节点也不会“抢”VIP和VMAC,除非这个节点挂了,两一个节点才会“抢”。
四、 实现在状态转变的时候自定义进行通知,
4.1这需要依赖于脚本来完成
主节点
[root@node1 ~]# cd /etc/keepalived/
[root@node1 keepalived]# vim notify.sh //编写脚本
#!/bin/bash
vip=172.16.6.100
contact='root@localhost'
thisip=`ifconfig eth0 | awk '/inet addr:/{print $2}' | awk -F: '{print $2}'`
Notify() {
mailsubject="$thisip is to bi $vip master"
mailbody="vrrp transaction, $vip floated to $thisip"
echo $mailbody | mail -s "$mailsubject" $contact
}
case "$1" in
master)
notify master
exit 0
;;
backup)
notify backup
exit 0
;;
fault)
notify fault
exit 0
;;
*)
echo 'Usage: `basename $0` {master|backup|fault}'
exit 1
;;
esac
[root@node1 keepalived]# chmod +x notify.sh
[root@node1 keepalived]# ./notify.sh master
[root@node1 keepalived]# mail //查看有没有收到通知
Heirloom Mail version 12.4 7/29/08. Type ? for help.
"/var/spool/mail/root": 1 message 1 new
>N 1 root Wed Sep 25 14:54 18/668 "172.16.6.10 is to bi 172.16.6.100 mas"
&
转换状态查看是否会收到通知
[root@node1 keepalived]# ./notify.sh backup
[root@node1 keepalived]# ./notify.sh fault
[root@node1 keepalived]# mail
Heirloom Mail version 12.4 7/29/08. Type ? for help.
"/var/spool/mail/root": 3 messages 2 new
1 root Wed Sep 25 14:54 19/679 "172.16.6.10 is to bi 172.16.6.100 mas"
>N 2 root Wed Sep 25 14:57 18/668 "172.16.6.10 is to bi 172.16.6.100 mas"
N 3 root Wed Sep 25 14:57 18/668 "172.16.6.10 is to bi 172.16.6.100 mas"
&
说明脚本正常工作,那么去编辑配置文件
[root@node1 keepalived]# vim keepalived.conf
在全局阶段添加
vrrp_script chk_mantaince_down{ //定义可以手动控制状态的脚本
script "[[ -f /etc/keepalived/down ]] && exit 1 || exit 0"
interval 1 //检查时间间隔
weight -2 //如果检测失败,优先级-2
}
在 vrrp阶段添加如下几行
track_script { //引用定义的脚本
chk_mantaince_down
}
notify_master"/etc/keepalived/notify.sh master"
notify_backup"/etc/keepalived/notify.sh backup"
notify_fault"/etc/keepalived/notify.sh fault"
4.2将该脚本复制到另一个节点,
[root@node1 keepalived]# scp notify.sh 172.16.6.1:/etc/keepalived/
并在配置文件中相应的位置添加相同内容
两个节点都重启服务
4.3让主节点变成从节点
root@node1 keepalived]# touch down
通过监控,发现主节点立即变成从节点,并收到一封邮件
[root@node1 keepalived]# tail -f /var/log/messages
You have new mail in /var/spool/mail/root
五、 实现负载均衡
5.1 编辑配置文件
[root@node1 keepalived]# vim keepalived.conf
#####负载均衡阶段#################
virtual_server 172.16.6.100 80 { //指定VIP和端口
delay_loop 6 //延迟多少个周期再启动服务,做服务检测
lb_algo rr loadbalance 负载均衡调度算法
lb_kind DR 类型
nat_mask 255.255.0.0 掩码
persistence_timeout 0 持久连接时间
protocol TCP //协议
real_server 172.16.6.11 80 { //定义后端realserver的属性
weight 1
HTTP_GET { //定义检测的方法
url { //检测的URL
path /
status_code 200 //获取结果的状态码
}
connect_timeout 3 //连接超时时间
nb_get_retry 3 //尝试次数
delay_before_retry 3 //每次尝试连接的等待时间
}
}
real_server 172.16.6.12 80 { //定义后端realserver的属性
weight 1
HTTP_GET { //定义检测的方法
url { //检测的URL
path /
status_code 200 //获取结果的状态码
}
connect_timeout 3 //连接超时时间
nb_get_retry 3 //尝试次数
delay_before_retry 3 //每次尝试连接的等待时间
}
}
}
5.2、在从节点上做同样的修改
5.3重启服务并用ipvsadm命令检测是否会生成规则
[root@node1 keepalived]# service keepalived restart
[root@node1 keepalived]# ipvsadm -L -n
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
-> RemoteAddress:Port Forward Weight ActiveConn InActConn
TCP 172.16.6.100:80 rr
[root@node1 keepalived]#
但是为什么没有我们定义的两个 realserver呢?那是因为没启动虚拟机呢,健康状况检测没通过,就不会显示了,我们去启动一个虚拟机,并启动服务即可。
并执行如下命令,做lvs负载均衡的DR模型
#ifconfig lo:0 172.16.6.11 broadcast 172.16.6.11 netmask 255.255.255.255 up
#route add -host 172.16.6.11 dev lo:0
#echo 1 > /proc/sys/net/ipv4/conf/lo/arp_ignore
#echo 1 > /proc/sys/net/ipv4/conf/all/arp_ignore
#echo 2 > /proc/sys/net/ipv4/conf/all/arp_announce
#echo 2 > /proc/sys/net/ipv4/conf/lo/arp_announce
注:
1、后端的realserver的数量可以添加多台,但是需要在主节点的配置文件中给出相应的配置,并在添加的realserver上执行相关命令即可
2、尽管keepalived可以自行添加ipvs规则,实现负载均衡,但是无法实现动静分离,在生产环境中我们要根据场景选择最佳的方案。
六:实现nginx的高可用
6.1前提
两个节点上都装上nginx服务,并确保httpd没启用
# netstat -tunlp //确保80端口没占用
# service nginx start
6.2为每个节点的 nginx编辑一个页面,以便于效果更直观一些
[root@node1 ~]# vim /usr/share/nginx/html/index.html //节点1
172.16.6.10
[root@node2 ~]# vim /usr/share/nginx/html/index.html //节点2
172.16.6.1
6.3确保nginx可以正常访问
6.4然后停掉服务,
[root@node1 keepalived]# vim notify.sh //修改脚本,让它可以监测nginx服务,并可以启动或关闭服务
##################
case "$1" in
master)
notify master
/etc/rc.d/init.d/nginx start
exit 0
;;
backup)
notify backup
/etc/rc.d/init.d/nginx stop
exit 0
;;
fault)
notify fault
/etc/rc.d/init.d/nginx stop
exit 0
;;
######################################
6.5同步脚本到节点2
[root@node1 keepalived]# scp notify.sh 172.16.6.1:/etc/keepalived/
6.6在主节点上
[root@node1 keepalived]# touch down
[root@node1 keepalived]#ss -tunl //发现80端口未被监听
[root@node1 keepalived]# rm -f down
[root@node1 keepalived]#ss -tunl //发现80端口已经被监听
基于keepalived 实现VIP转移,lvs,nginx的高可用的更多相关文章
- Keepalived+Nginx实现高可用Web负载均衡
1.安装编译 Nginx 所需的依赖包# yum install gcc gcc-c++ make automake autoconf libtool pcre pcre-devel zlib zli ...
- Dubbo入门到精通学习笔记(十六):Keepalived+Nginx实现高可用Web负载均衡
文章目录 Keepalived+Nginx实现高可用Web负载均衡 Keepalived+Nginx实现高可用Web负载均衡 高可用架构篇 Keepalived + Nginx 实现高可用 Web 负 ...
- 分布式架构高可用架构篇_04_Keepalived+Nginx实现高可用Web负载均衡
参考: 龙果学院http://www.roncoo.com/share.html?hamc=hLPG8QsaaWVOl2Z76wpJHp3JBbZZF%2Bywm5vEfPp9LbLkAjAnB%2B ...
- 基于Keepalived实现LVS双主高可用集群
Reference: https://mp.weixin.qq.com/s?src=3×tamp=1512896424&ver=1&signature=L1C7us ...
- keepalived + nginx实现高可用
1. Keepalived介绍 Keepalived是一个基于VRRP协议来实现的服务高可用方案,可以利用其来避免IP单点故障,类似的工具还有heartbeat.corosync.pacemaker. ...
- [转]搭建Keepalived+Nginx+Tomcat高可用负载均衡架构
[原文]https://www.toutiao.com/i6591714650205716996/ 一.概述 初期的互联网企业由于业务量较小,所以一般单机部署,实现单点访问即可满足业务的需求,这也是最 ...
- [原创]lvs+ospf+nginx实现高可用大流量web架构
lvs+ospf+nginx实现高可用大流量web架构配置总概述 架构图: 配置如下: .quagga之zebra配置: # cat /etc/quagga/zebra.conf ! ! Zebra ...
- Keepalived + Nginx 实现高可用 Web 负载均衡
一.Keepalived 简要介绍 Keepalived 是一种高性能的服务器高可用或热备解决方案, Keepalived 可以用来防止服务器单点故障的发生,通过配合 Nginx 可以实现 web 前 ...
- Keepalived+Nginx实现高可用(HA)
Keepalived+Nginx实现高可用(HA) service iptables stopchkconfig iptables offsetenforce 0/etc/selinux/config ...
随机推荐
- 常用 SQL语句
Oracle 查看所有表的名字: select table_name from user_tables; 查询特定表的名字:select * from (select table_name t fro ...
- sql-删除delete涉及到三个表,这个时候就要使用from,比如这样
delete y from dbo.XZXK_BANJIE b ,YJDC_YELLOWRED_CONTENT y , dbo.XZXK_SHOULI s where b.shoulioid=s.sh ...
- json-c代码示例
#include <stdio.h> #include <string.h> #include <json.h> int main(int argc,char ** ...
- sql 按时间二段排序
业务需用为数据按倒序排序,当天数据排在以往日期前面,但当天数据需按小时进行升序排列 select *from( select vcTitle,dtBeginDate,case when dtBegin ...
- Node.js学习 - Install and Configure
平台:Windows 官网:https://nodejs.org/en/ 下载安装 CMD中运行 1 交互模式 2 命令模式 模块安装 - NPM npm install express #当前目录安 ...
- android5.0----SVG
SVG ----scalable vector Graphics 可缩放矢量图形 android L 即android 5.0的新特性. 1,SVG是干什么的? 可缩放矢量图形是基于可扩展标记语言(标 ...
- HDU 5479 Scaena Felix
水题,括号匹配,有几对匹配了,答案就是那个... #include<cstdio> #include<cstring> #include<cmath> #inclu ...
- HDU 5900
QSC and Master Time Limit: 2000/1000 MS (Java/Others) Memory Limit: 131072/131072 K (Java/Others) ...
- 剑指offer反转链表
way1: 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 3 ...
- HDFS读写程序小测试
WriteHdfs: package aa; import java.io.*; import org.apache.hadoop.conf.Configuration; import org.apa ...