项目实战03:Keepalived 实现高可用
目录
实现基于Keepalived高可用集群网站架构
环境:随着业务的发展,网站的访问量越来越大,网站访问量已经从原来的1000QPS,变为3000QPS,目前业务已经通过集群LVS架构可做到随时拓展,后端节点已经通过集群技术保障了可用性,但对于前端负载均衡器来说,是个比较大的安全隐患,因为当前端负载均衡器出现故障时,整个集群就处于瘫痪状态,因此,负载均衡器的可用性也显得至关重要,那么怎么来解决负载均衡器的可用性问题呢?
总项目流程图,详见http://www.cnblogs.com/along21/p/7435612.html
实验前准备:
① 两台服务器都使用yum 方式安装keepalived 服务
yum -y install keepalived
② iptables -F && setenforing 清空防火墙策略,关闭selinux
实验一:实现keepalived主从方式高可用基于LVS-DR模式的应用实战:
实验原理:
主从:一主一从,主的在工作,从的在休息;主的宕机了,VIP漂移到从上,由从提供服务
1、环境准备:
两台centos系统做DR、一主一从,两台实现过基于LNMP的电子商务网站
机器名称 |
IP配置 |
服务角色 |
备注 |
lvs-server-master |
VIP:172.17.100.100 DIP:172.17.1.6 |
负载均衡器 主服务器 |
开启路由功能 配置keepalived |
lvs-server-backup |
VIP:172.17.100.100 DIP:172.17.11.11 |
后端服务器 从服务器 |
开启路由功能 配置keepalived |
rs01 |
RIP:172.17.1.7 |
后端服务器 |
|
rs02 |
RIP:172.17.22.22 |
后端服务器 |
2、在lvs-server-master 主上
修改keepalived主(lvs-server-master)配置文件实现 virtual_instance 实例
(1)vim /etc/keepalived/keepalived.conf 修改三段
① 全局段,故障通知邮件配置
global_defs {
notification_email {
root@localhost
}
notification_email_from root@along.com
smtp_server 127.0.0.1
smtp_connect_timeout 30
router_id keepalived_lvs
} ② 配置虚拟路由器的实例段,VI_1是自定义的实例名称,可以有多个实例段
vrrp_instance VI_1 { #VI_1是自定义的实例名称
state MASTER #初始状态,MASTER|BACKUP
interface eth1 #通告选举所用端口
virtual_router_id 51 #虚拟路由的ID号(一般不可大于255)
priority 100 #优先级信息 #备节点必须更低
advert_int 1 #VRRP通告间隔,秒
authentication {
auth_type PASS #认证机制
auth_pass along #密码(尽量使用随机)
}
virtual_ipaddress {
172.17.100.100 #vip
}
} ③ 设置一个virtual server段
virtual_server 172.17.100.100 80 { #设置一个virtual server:
delay_loop 6 # service polling的delay时间,即服务轮询的时间间隔
lb_algo wrr #LVS调度算法:rr|wrr|lc|wlc|lblc|sh|dh
lb_kind DR #LVS集群模式:NAT|DR|TUN
nat_mask 255.255.255.255
persistence_timeout 600 #会话保持时间(持久连接,秒),即以用户在600秒内被分配到同一个后端realserver
protocol TCP #健康检查用的是TCP还是UDP
④ real server设置段
real_server 172.17.1.7 80 { #后端真实节点主机的权重等设置
weight 1 #给每台的权重,rr无效
HTTP_GET { #http服务
url {
path /
}
connect_timeout 3 #连接超时时间
nb_get_retry 3 #重连次数
delay_before_retry 3 #重连间隔
}
}
real_server 172.17.22.22 80 {
weight 2
HTTP_GET {
url {
path /
}
connect_timeout 3
nb_get_retry 3
delay_before_retry 3
}
}
}
(2)开启keepalived 服务
service keepalived start
能看到网卡别名 和 负载均衡策略已经设置好了
ipvsadm -Ln
(3)因为是主从方式,所以从上的配置和主只有一点差别;所以可以把这个配置文件拷过去
scp /etc/keepalived/keepalived.conf @172.17.11.11:
3、在lvs-server-backup 从上
(1)只需改②实例段,其他都不要变,保证一模一样
vrrp_instance VI_1 {
state BACKUP
interface eth1
virtual_router_id 51
priority 99
advert_int 1
authentication {
auth_type PASS
auth_pass along
}
(2)开启keepalived 服务
service keepalived start
负载均衡策略已经设置好了,注意:主director没有宕机,从上就不会有VIP
ipvsadm -Ln 可能过一会才会显示
4、在real server 上
(1) 开启事前准备好的web服务
systemctl start nginx
systemctl start mariadb
systemctl start php-fpm
(2)因为是DR模式,需在rs上设置
① 配置VIP到本地回环网卡lo上,并只广播自己
ifconfig lo:0 172.17.100.100 broadcast 172.17.100.100 netmask 255.255.255.255 up
配置本地回环网卡路由
route add -host 172.17.100.100 lo:0
② 使RS "闭嘴"
echo "1" > /proc/sys/net/ipv4/conf/lo/arp_ignore
echo "2" > /proc/sys/net/ipv4/conf/lo/arp_announce
忽略ARP广播
echo "1" > /proc/sys/net/ipv4/conf/all/arp_ignore
echo "2" > /proc/sys/net/ipv4/conf/all/arp_announce
注意:关闭arp应答
1:仅在请求的目标IP配置在本地主机的接收到请求报文的接口上时,才给予响应
2:必须避免将接口信息向非本网络进行通告
③ 想永久生效,可以写到配置文件中
vim /etc/sysctl.conf
net.ipv4.conf.lo.arp_ignore = 1
net.ipv4.conf.lo.arp_announce = 2
net.ipv4.conf.all.arp_ignore = 1
net.ipv4.conf.all.arp_announce = 2
5、测试
(1)lvs负载均衡作用是否开启
客户端访问http://172.17.100.100/
也可以详细测试
① 在rs1 上设置一个测试一面
vim /data/web/test.html
real server 1
② 在rs2 上设置一个测试一面
vim /data/web/test.html
real server 2
③ 网页访问http://172.17.100.100/test.html 发现有real server 1也有real server 2
(2)测试keepalived的主从方式
① 使keepalive 的主宕机
service keepalived stop
会发现服务能照常访问,但是VIP 漂移到了从上
从多了网卡别名,且地址是VIP
③ 使keepalive 的主重新开启服务,因为主的优先级高,所以VIP又重新漂移到了主上
实验二:实现keepalived双主方式高可用基于LVS-DR模式的应用实战:
实验原理:
互为主从:主从都在工作;其中一个宕机了,VIP漂移到另一个上,提供服务
1、实验环境,基本同上
机器名称 |
IP配置 |
服务角色 |
备注 |
lvs-server-1 |
VIP:172.17.100.100 DIP:172.17.1.6 |
负载均衡器 主服务器 |
开启路由功能 配置keepalived |
lvs-server2 |
VIP:172.17.100.101 DIP:172.17.11.11 |
后端服务器 从服务器 |
开启路由功能 配置keepalived |
rs01 |
RIP:172.17.1.7 |
后端服务器 |
|
rs02 |
RIP:172.17.22.22 |
后端服务器 |
2、在lvs-server1 上,基本同上,就是加了一个实例段
修改keepalived主(lvs-server-master)配置文件实现 virtual_instance 实例
(1)vim /etc/keepalived/keepalived.conf
① 主的设置 VI_1
vrrp_instance VI_1 {
state MASTER
interface eth1
virtual_router_id 51
priority 100
advert_int 1
authentication {
auth_type PASS
auth_pass along
}
virtual_ipaddress {
172.17.100.100
}
} virtual_server 172.17.100.100 80 {
delay_loop 6
lb_algo wrr
lb_kind DR
nat_mask 255.255.255.255
persistence_timeout 600
protocol TCP real_server 172.17.1.7 80 {
weight 1
HTTP_GET {
url {
path /
}
connect_timeout 3
nb_get_retry 3
delay_before_retry 3
}
}
real_server 172.17.22.22 80 {
weight 1
HTTP_GET {
url {
path /
}
connect_timeout 3
nb_get_retry 3
delay_before_retry 3
}
}
}
② 从的设置 VI_2
vrrp_instance VI_2 {
state BACKUP
interface eth1
virtual_router_id 52
priority 98
advert_int 1
authentication {
auth_type PASS
auth_pass along
}
virtual_ipaddress {
172.17.100.101
}
} virtual_server 172.17.100.101 443 {
delay_loop 6
lb_algo wrr
lb_kind DR
nat_mask 255.255.255.255
persistence_timeout 600
protocol TCP real_server 172.17.1.7 443 {
weight 1
HTTP_GET {
url {
path /
}
connect_timeout 3
nb_get_retry 3
delay_before_retry 3
}
}
real_server 172.17.22.22 443 {
weight 1
HTTP_GET {
url {
path /
}
connect_timeout 3
nb_get_retry 3
delay_before_retry 3
}
}
}
(2)开启keepalived 服务
service keepalived start
能看到网卡别名 和 负载均衡策略已经设置好了
ipvsadm -Ln
(3)因为是主从方式,所以从上的配置和主只有一点差别;所以可以把这个配置文件拷过去
scp /etc/keepalived/keepalived.conf @172.17.11.11:
3、在lvs-server2 上,基本同1,就是把实例的主从调换一下
(1)vim /etc/keepalived/keepalived.conf
① vrrp_instance VI_1 {
state BACKUP
interface eth1
virtual_router_id 51
priority 98
advert_int 1
authentication {
auth_type PASS
auth_pass along
}
virtual_ipaddress {
172.17.100.100
}
}
② vrrp_instance VI_2 {
state MASTER
interface eth1
virtual_router_id 52
priority 100
advert_int 1
authentication {
auth_type PASS
auth_pass along
}
virtual_ipaddress {
172.17.100.101
}
}
(2)开启keepalived 服务
service keepalived start
能看到网卡别名 和 负载均衡策略已经设置好了,显示结果会等段时间再显示
ipvsadm -Ln,显示结果会等段时间再显示
4、在real server 上
(1) 开启事前准备好的web服务
systemctl start nginx
systemctl start mariadb
systemctl start php-fpm
(2)因为是DR模式,需在rs上设置
① 配置VIP到本地回环网卡lo上,并只广播自己
ifconfig lo:0 172.17.100.100 broadcast 172.17.100.100 netmask 255.255.255.255 up
ifconfig lo:1 172.17.100.101 broadcast 172.17.100.101 netmask 255.255.255.255 up
配置本地回环网卡路由
route add -host 172.17.100.100 lo:0
route add -host 172.17.100.101 lo:1
② 使RS "闭嘴"
echo "1" > /proc/sys/net/ipv4/conf/lo/arp_ignore
echo "2" > /proc/sys/net/ipv4/conf/lo/arp_announce
忽略ARP广播
echo "1" > /proc/sys/net/ipv4/conf/all/arp_ignore
echo "2" > /proc/sys/net/ipv4/conf/all/arp_announce
注意:关闭arp应答
1:仅在请求的目标IP配置在本地主机的接收到请求报文的接口上时,才给予响应
2:必须避免将接口信息向非本网络进行通告
③ 想永久生效,可以写到配置文件中
vim /etc/sysctl.conf
net.ipv4.conf.lo.arp_ignore = 1
net.ipv4.conf.lo.arp_announce = 2
net.ipv4.conf.all.arp_ignore = 1
net.ipv4.conf.all.arp_announce = 2
5、测试
(1)lvs负载均衡作用是否开启
客户端访问http://172.17.100.100/ 公网172.17.100.100只能访问80
https://172.17.100.101/ 公网172.17.100.101只能访问443
也可以详细测试
① 在rs1 上设置一个测试一面
vim /data/web/test.html
real server 1
② 在rs2 上设置一个测试一面
vim /data/web/test.html
real server 2
③ 网页访问http://172.17.100.100/test.html或https://172.17.100.101/test.html 发现有real server 1也有real server 2
(2)测试keepalived的双主方式
① 使keepalive 的任意一个宕机
service keepalived stop
会发现服务能照常访问,另一个机器80、443都能访问,且宕机的VIP漂移到了另一个服务器上
实验三:实现keepalived主从方式高可用基于LVS-NAT模式的应用实战:
实验原理:
主从:一主一从,主的在工作,从的在休息;主的宕机了,VIP和DIP都漂移到从上,由从提供服务,因为DIP需被rs作为网关,所以也需漂移
1、环境准备
机器名称 |
IP配置 |
服务角色 |
备注 |
vs-server-master |
VIP:172.17.100.100 DIP:192.168.30.100 |
负载均衡器 主服务器 |
开启路由功能 配置keepalived |
lvs-server-backup |
VIP:172.17.100.100 DIP:192.168.30.100 |
后端服务器 从服务器 |
开启路由功能 配置keepalived |
rs01 |
RIP:192.168.30.107 |
后端服务器 |
网关指向DIP |
rs02 |
RIP:192.168.30.7 |
后端服务器 |
网关指向DIP |
注意:要确保rs和DIP在一个网段,且不和VIP在一个网段
2、在lvs-server-master 主上
(1)vim keepalived.conf
global_defs {
notification_email {
root@localhost
}
notification_email_from root@along.com
smtp_server 127.0.0.1
smtp_connect_timeout 30
router_id keepalived_lvs
} vrrp_instance VI_1 {
state MASTER
interface eth0
virtual_router_id 51
priority 100
advert_int 1
authentication {
auth_type PASS
auth_pass along
}
virtual_ipaddress {
172.17.100.100
192.168.30.100
}
} virtual_server 172.17.100.100 80 {
delay_loop 6
lb_algo wrr
lb_kind NAT
nat_mask 255.255.255.255
persistence_timeout 100
protocol TCP real_server 192.168.30.107 80 {
weight 1
HTTP_GET {
url {
path /
}
connect_timeout 3
nb_get_retry 3
delay_before_retry 3
}
} real_server 192.168.30.7 80 {
weight 2
HTTP_GET {
url {
path /
}
connect_timeout 3
nb_get_retry 3
delay_before_retry 3
}
}
}
(2)因为是NAT模式,所以需开启路由转发功能
vim /etc/sysctl.conf
net.ipv4.ip_forward = 1
sysctl -p 读一些,使参数生效
(3)开启keepalived 服务
service keepalived start
能看到网卡别名 和 负载均衡策略已经设置好了
ipvsadm -Ln
(4)因为是主从方式,所以从上的配置和主只有一点差别;所以可以把这个配置文件拷过去
scp /etc/keepalived/keepalived.conf @172.17.11.11:
3、在lvs-server-backup 从上
(1)只需改②实例段,其他都不要变,保证一模一样
vrrp_instance VI_1 {
state BACKUP
interface eth1
virtual_router_id 51
priority 99
advert_int 1
authentication {
auth_type PASS
auth_pass along
}
(2)因为是NAT模式,所以需开启路由转发功能
① vim /etc/sysctl.conf
net.ipv4.ip_forward = 1
② sysctl -p 读一些,使参数生效
(3)开启keepalived 服务
service keepalived start
负载均衡策略已经设置好了,注意:主director没有宕机,从上就不会有VIP
ipvsadm -Ln 可能过一会才会显示
4、在real server 上
(1) 开启事前准备好的web服务
systemctl start nginx
systemctl start mariadb
systemctl start php-fpm
(2)因为是NAT模式,需在rs上设置
只需把网关指向DIP
route add default gw 192.168.30.100
5、测试
(1)lvs负载均衡作用是否开启
客户端访问http://172.17.100.100/
也可以详细测试
① 在rs1 上设置一个测试一面
vim /data/web/test.html
real server 1
② 在rs2 上设置一个测试一面
vim /data/web/test.html
real server 2
③ 网页访问http://172.17.100.100/test.html 发现有real server 1也有real server 2
(2)测试keepalived的主从方式
① 使keepalive 的主宕机
service keepalived stop
会发现服务能照常访问,但是VIP 和DIP 都漂移到了从上
从多了网卡别名,且地址是VIP
③ 使keepalive 的主重新开启服务,因为主的优先级高,所以VIP和DIP又重新漂移到了主上
实验四:实现keeaplived 故障通知机制
1、编写好脚本
脚本主要内容:检测到主从发生变化,或错误,给谁发邮件;邮件内容是:在什么时间,谁发生了什么变化
vim /etc/keepalived/notify.sh
#!/bin/bash
# Author: www.magedu.com
contact='root@localhost'
notify() {
mailsubject="$(hostname) to be $1: vip floating"
mailbody="$(date +'%F %H:%M:%S'): vrrp transition, $(hostname) changed to be $1"
echo $mailbody | mail -s "$mailsubject" $contact
}
case $1 in
master)
notify master
exit 0
;;
backup)
notify backup
exit 0
;;
fault)
notify fault
exit 0
;;
*)
echo "Usage: $(basename $0) {master|backup|fault}"
exit 1
;;
esac
脚本加权限 chmod +x /etc/keepalived/notify.sh
2、在keepalived 的配置文件调用脚本
在instance 实例段添加,注意脚本的路径
notify_backup "/etc/keepalived/notify.sh backup"
notify_master "/etc/keepalived/notify.sh master"
notify_fault "/etc/keepalived/notify.sh fault"
例:
实验五:实现keepaplived自定义脚本检测功能
原理:在keepalived的配置文件中能直接定义脚本,且能在instance 实例段直接调用生效
方案一:检测是否存在down文件,来实现主从的调整
1、在实例段上边定义一个脚本
vim keepalived.conf
vrrp_script chk_down { #定义一个脚本,脚本名称为chk_down
script "[[ -f /etc/keepalived/down ]] && exit 1 || exit 0" #检查这个down文件,若存在返回值为1,keepalived会停止;不存在返回值为0,服务正常运行;这里的exit和bash脚本里的return很相似
interval 2 #每2秒检查一次
}
2、在instance 实例段可以直接调用这个脚本
track_script {
chk_down
}
3、检测
在主上,创建一个/etc/keepalived/down 文件,主的keepalived服务立刻停止,VIP漂到从上,从接上服务;
down文件一旦删除,主的keepalived服务会立即启动,若优先级高或优先级低但设置的抢占,VIP会重漂回来,接上服务。
方案二:检测nginx服务是否开启,来实现调整主从
1、在实例段上边定义一个脚本
vrrp_script chk_nginx {
script "killall -0 nginx" #killall -0 检测这个进程是否还活着,不存在就减权重
interval 2 #每2秒检查一次
fall 2 #失败2次就打上ko的标记
rise 2 #成功2次就打上ok的标记
weight -4 #权重,优先级-4,若为ko
}
2、在instance 实例段可以直接调用这个脚本
track_script {
chk_nginx
}
3、检测
若主的nginx服务没有开启,则每2秒-4的权重,当优先级小于从,VIP漂到从上,从接上服务;
若主的nginx服务开启,重读配置文件,优先级恢复,VIP回到主上,主恢复服务;
项目实战03:Keepalived 实现高可用的更多相关文章
- 项目实战3—Keepalived 实现高可用
实现基于Keepalived高可用集群网站架构 环境:随着业务的发展,网站的访问量越来越大,网站访问量已经从原来的1000QPS,变为3000QPS,目前业务已经通过集群LVS架构可做到随时拓展,后端 ...
- 实战| Nginx+keepalived 实现高可用集群
一个执着于技术的公众号 前言 今天通过两个实战案例,带大家理解Nginx+keepalived 如何实现高可用集群,在学习新知识之前您可以选择性复习之前的知识点: 给小白的 Nginx 10分钟入门指 ...
- haproxy+keepalived实现高可用负载均衡
软件负载均衡一般通过两种方式来实现:基于操作系统的软负载实现和基于第三方应用的软负载实现.LVS就是基于Linux操作系统实现的一种软负载,HAProxy就是开源的并且基于第三应用实现的软负载. HA ...
- 实现基于Keepalived主从高可用集群网站架构
背景 上一期我们实现了基于lvs负载均衡集群的电商网站架构,随着业务的发展,网站的访问量越来越大,网站访问量已经从原来的1000QPS,变为3000QPS,目前业务已经通过集群LVS架构可做到随时拓展 ...
- haproxy+keepalived实现高可用负载均衡(转)
软件负载均衡一般通过两种方式来实现:基于操作系统的软负载实现和基于第三方应用的软负载实现.LVS就是基于Linux操作系统实现的一种软负载,HAProxy就是开源的并且基于第三应用实现的软负载. ...
- 用HAProxy和KeepAlived构建高可用的反向代理
用HAProxy和KeepAlived构建高可用的反向代理 用HAProxy和KeepAlived构建高可用的反向代理 前言对于访问量较大的网站来说,随着流量的增加单台服务器已经无法处理所有的请求 ...
- LVS+Keepalived实现高可用集群
LVS+Keepalived实现高可用集群来源: ChinaUnix博客 日期: 2009.07.21 14:49 (共有条评论) 我要评论 操作系统平台:CentOS5.2软件:LVS+keepal ...
- rabbitmq+haproxy+keepalived实现高可用集群搭建
项目需要搭建rabbitmq的高可用集群,最近在学习搭建过程,在这里记录下可以跟大家一起互相交流(这里只是记录了学习之后自己的搭建过程,许多原理的东西没有细说). 搭建环境 CentOS7 64位 R ...
- MariaDB Galera Cluster 部署 + keepalived实现高可用
MariaDB Galera Cluster 部署 MariaDB作为Mysql的一个分支,在开源项目中已经广泛使用,例如大热的openstack,所以,为了保证服务的高可用性,同时提高系统的负载能力 ...
随机推荐
- SQL SERVER 中日期格式化,及GETDATE()、CONVERT()函数使用说明
1. date和datetime类型的区别 date是SQL Server 2008新引进的数据类型.它表示一个日期,不包含时间部分,可以表示的日期范围从公元元年1月1日到9999年12月31日.只需 ...
- webstorm激活方法webstorm注册码 jetbrains激活
安装完成后,打开 WebStorm, 在打开的 License Activation 窗口中选择 License server. 在输入框输入网址即可: http://idea.codebeta.cn ...
- 评分模型的检验方法和标准&信用评分及实现
评分模型的检验方法和标准通常有:K-S指标.交换曲线.AR值.Gini数等.例如,K-S指标是用来衡量验证结果是否优于期望值,具体标准为:如果K-S大于40%,模型具有较好的预测功能,发展的模型具有成 ...
- Docker入门 - 004 Docker 容器使用
Docker 客户端 docker 客户端非常简单 ,我们可以直接输入 docker 命令来查看到 Docker 客户端的所有命令选项. docker 可以通过命令 docker command -- ...
- CSS 水平居中与垂直居中
前言 在CSS布局中,水平居中与垂直居中一直是用到比较多的,在本篇中将介绍水平居中.垂直居中的几种方式. 示例 HTML: <div class="parent"> & ...
- react学习笔记2之正确使用状态
//状态不要直接修改,比如: // 错的,这样写不会重新渲染组件 this.state.comment = 'Hello'; //修改状态正确的方式 this.setState({comment:'H ...
- IOS逆向-砸壳笔记
本人ios10.3.1 iphone6越狱机.方案三个. 方案一.dumpdecrypted.dylib 1. ssh到越狱机上,看WeChat可执行文件在哪. # ps aux|grep WeCha ...
- 【Java】的四种引用的区别
强引用:如果一个对象具有强引用,它就不会被垃圾回收器回收.即使当前内存空间不足,JVM 也不会回收它,而是抛出 OutOfMemoryError 错误,使程序异常终止.如果想中断强引用和某个对象之间的 ...
- iOS开发之duplicate symbols for architecture x86_64错误
[主要内容:] 1. 错误提示 2. 分析错误原因 3. 解决问题办法 一.错误提示 在我们写代码过程中可能会经常遇到这样一个错误: <span style="font-size: ...
- SAP S4HANA1610/Fiori安装过程全记录
经历各种坑,从硬件到文件,终于安装成功. 有需要安装或使用S4HANA(含Fiori)的同学可以参考. 安装文件分享给大家 链接:http://pan.baidu.com/s/1mi7LfIS 密码: ...