lvs_dr
lvs_dr
实验需求(4台虚拟机)
eth0 192.168.1.110 单网卡 client(可以使用windows浏览器代替,但会有缓存影响)
eth0 192.168.1.186 单网卡 dir 调度器
eth0 192.168.1.185 单网卡 rs1 真实服务器1
eth0 192.168.1.190 单网卡 rs2 真实服务器2
192.168.1.160 VIP
关闭各虚拟机的iptables
配置环境
- dir安装lvs的lvs管理软件
yum install -y ipvsadm
- 2台rs上安装nginx
yum install -y nginx
echo "rs1 nginx" > /usr/share/nginx/html/index.html
echo "rs2 nginx" > /usr/share/nginx/html/index.html
dir脚本
vim /usr/local/sbin/lvs_dr.sh
#!/bin/bash
# director服务器上开启路由转发功能
# echo 1 > /proc/sys/net/ipv4/ip_forward
# 测试发现因为调度器跟real_server在同一网段,如果需要转发给外网或别的网段就打开
ipv=/sbin/ipvsadm
vip=192.168.1.160
rs1=192.168.1.185
rs2=192.168.1.190
ifconfig eth0:0 $vip broadcast $vip netmask 255.255.255.255 up
# 注意子网掩码是255.255.255.255,代表vip所在网段没有别的主机了
route add -host $vip dev eth0:0
# 增加一条路由
$ipv -C
$ipv -A -t $vip:80 -s rr
$ipv -a -t $vip:80 -r $rs1:80 -g -w 1
$ipv -a -t $vip:80 -r $rs2:80 -g -w 1
# -g代表dr模式
执行dir脚本
sh /usr/local/sbin/lvs_dr.sh
查看dir是否搭建成功
[root@dir sbin]# ipvsadm -ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
-> RemoteAddress:Port Forward Weight ActiveConn InActConn
TCP 192.168.1.160:80 rr
-> 192.168.1.185:80 Route 1 0 0
-> 192.168.1.190:80 Route 1 0 0
real_server1 和 real_server2 脚本
vim /usr/local/sbin/lvs_rs.sh
#!/bin/bash
vip=192.168.1.160
ifconfig lo:0 $vip broadcast $vip netmask 255.255.255.255 up
route add -host $vip lo:0
echo "1" > /proc/sys/net/ipv4/conf/lo/arp_ignore
echo "1" > /proc/sys/net/ipv4/conf/all/arp_ignore
echo "2" > /proc/sys/net/ipv4/conf/lo/arp_announce
echo "2" > /proc/sys/net/ipv4/conf/all/arp_announce
执行脚本
sh /usr/local/sbin/lvs_rs.sh
测试:(在client上测试)
curl 192.168.1.160
[root@dir ~]# curl 192.168.1.160
rs1 nginx
[root@dir ~]# curl 192.168.1.160
rs2 nginx
[root@dir ~]# curl 192.168.1.160
rs1 nginx
[root@dir ~]# curl 192.168.1.160
rs2 nginx
lvs_dr环境中arp参数
dr模式下,会查询各网卡信息(在dir上查看arp的信息)
[root@dir ~]# arp -n
Address HWtype HWaddress Flags Mask Iface
192.168.1.110 ether 00:0c:29:5a:c3:48 C eth0
192.168.1.185 ether 00:0c:29:be:c6:a9 C eth0
192.168.1.1 ether 84:c9:b2:2a:05:b1 C eth0
192.168.1.190 ether 00:0c:29:c4:57:a1 C eth0
192.168.1.115 ether 10:bf:48:de:5d:54 C eth0
请求流程如下
client在发起请求之前,会发一个arp广播的包,在网络中找“谁是vip”,
由于所有的服务器,lvs和res都有vip,为了让client的请求送到lvs上,
所以必须让res不能响应client发出的arp请求,
(这也是为什么要禁止res上arp的请求和响应)下面就是lvs转发的事情了:
1. client向目标vip发送请求,lvs接收;此时ip包和数据信息如下:
src mac dst mac src_ip dst_ip
192.168.1.110 192.168.1.160
2. lvs根据负载均衡的算法,选择一台realserver,然后把realserver1的mac地址作为目的mac地址,发送到局域网中
src mac dst mac src_ip dst_ip
192.168.1.110 192.168.1.160
3. realserver1在局域网中收到这个请求以后,发现目的ip和本地匹配,于是进行处理;
处理完成以后,直接把源ip和目的ip直接对调,然后经过网关直接返回给用户;
src mac dst mac src_ip dst_ip
192.168.1.160 192.168.1.110
以下参考http://blog.csdn.net/han156/article/details/78452219
ipvsadm脚本详细解析
- 客户端:CIP
- 调度器VS:VIP,DIP(VIP用于接收客户端的请求;DIP用于和本网段中的RS通讯,以便获取$RIP的MAC地址;)
- 真实服务器RS:VIP,RIP(VIP用于发送响应包给客户端;RIP用于和调度器通讯,以便调度器区分不同的RS;)
客户端发送一个目标是VIP的请求包,通过路由器最终到达调度器。
进入VIP的网卡,经过调度器的PREROUTING链之后,查看自己的路由表,发现目标是自己,然后就会发往INPUT链;
在数据到达INPUT链之前,被IPVS拦下来,通过查看IPVS中的定义的规则和算法确定了要将该请求发送到哪台RS服务器上。
("规则"就是通过ipvsadm命令添加的数据,例如:"ipvsadm -a -t $VIP:80 -r $RIP:80 -g -w 1")
在发送请求包之前,调度器会先发送一个广播包,询问"$RIP,你的mac地址是什么?"
$RIP收到广播之后,就发送一个回应的广播包,说:"$RIP的MAC地址是*****"。
(注意:并不是每次都要询问$RIP的MAC地址的,如果调度器中有缓存的话,也就不会再问了。)
问题:有人可能会有疑问,RS上不是拒绝响应arp请求的吗?怎么还会回应!
RIP中配置的两个参数,arp_ignore=1,表示
"如果这个arp请求,是询问我这个接口上的IP的mac地址的话,我才会响应。
而0,表示,这个arp只要是询问我这个主机上的任何一个IP,我都要响应。"
由于调度器发的arp请求中,询问的IP是$RIP,所以,只会有$RIP对应的那个网卡才会响应。
调度器收到$RIP回应的广播包之后,就将客户端的请求重新封装,
请求包中的源IP和目标IP不变,将包中的目标mac地址改成$RIP的mac地址,然后将包发送给$RIP所对应的RS服务器。
当RS收到从调度器转发来的客户端的请求的时候,通过解封装后,得知客户端的请求,
然后做出响应,将响应包通过本机上经过特殊处理的VIP,发送给网关。通过互联网发送给客户端。
DR配置中,有几个比较特别的步骤:
- LVS上的:
ifconfig eth0:0 $vip broadcast $vip netmask 255.255.255.255 up
# 表示:在eth0网卡上声明一个网卡别名eth0:0,它对应的IP是$VIP,他的广播域是他自己;
#(将VIP和DIP绑定在一个物理网卡上。)
route add -host $vip dev eth0:0
# 表示:在路由表中添加一条路由,指定,目标IP地址是$RIP的数据包,走eth0:0接口。
#(由于LVS上的VIP和DIP是在一个网卡上的,必须通过eth0:0接口才可以出去。)
- RS上的:
ifconfig lo:0 $vip broadcast $vip netmask 255.255.255.255 up
# 表示:在本地回环网卡上声明一个网卡别名lo:0,他对应的IP是VIP,它的广播域是他自己;
route add -host $vip lo:0
# 表示:在路由表中添加一条路由,指定,目标IP地址是$VIP的数据包,走lo:0接口。
#(从这个接口,他出不去,只会在lo:0里面转。)
echo "1" >/proc/sys/net/ipv4/conf/lo/arp_ignore
echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore
# 表示:arp请求,如果是询问我这个接口上的IP的mac地址的话,我才会响应。
# 而0,表示,这个arp只要是询问我这个主机上的任何一个IP,我都要响应。
# 由于每个RS上都有VIP,默认值"0",会造成局域网中IP地址冲突。
# 当路由器询问谁$VIP的mac地址的时候,RS不要响应。
# 注意:对于arp_ignore参数,all/ 和{interface}/ 下两者同时比较,取较大一个值生效。
echo "2" >/proc/sys/net/ipv4/conf/lo/arp_announce
echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce
# 表示:不对外声明我在使用Vip地址,因为由于调度器和RS在同一个网络中,
# 如果RS声明自己有$VIP的地址的话,会造成通讯紊乱,影响调度器和路由器之间的通讯。
# all/ 和{interface}/ 下两者同时比较,取较大一个值生效。
# 提高约束级别有益于从指定的目标接受应答,而降低级别可以给予更多的arp查询者以反馈信息
# 注意:默认情况下,上面四个参数的值都是"0";
dr模式小结
DR模式最大的特点是LBserver和后端的rs都要配置同一个VIP
(rs端vip要配置在回环网卡上,即只让LBserver上的vip对外)
通过LBserver将client端发过来数据包添加MAC头,通过MAC直接将数据包传到后端rs上
(所以LBserer的ip与rs的ip要在同一物理网段内)
此时后端回环网卡上也配置了同一个vip,正好对应数据包上的目的ip。
rs收到数据包后不用通过LBserver返回数据包,而是直接将数据包返还给client
(这也是为什么dr模式rs上也需要配置公网ip)
待确定的问题
在调度器上不能请求vip,直接执行curl vip会等待很久然后返回无host
猜测是发出的数据不能进入dir的vip网卡,而后端real_server的vip只能通过MAC地址接收
(但这个信息包没有包含网卡信息)
lvs_dr的更多相关文章
- keepalived深度结合lvs_dr模式
keepalived与dr模式结合 keepalived介绍 keepalived可提供vrrp以及health-check功能,可以只用它提供双机浮动的vip(vrrp虚拟路由功能), 这样可以简单 ...
- LVS_DR模式构建配置
一.环境准备 lvs负载均衡器 系统:centos6.8 ip:192.168.2.203 vip:192.168.2.17 web服务器RS1 系统:centos6.8 ip:192.168.2.2 ...
- 用pyhton配置LVS_DR模式
import paramiko vip = '192.168.42.250' ds = '192.168.42.8' rs1 = '192.168.42.9' rs2 = '192.168.42.10 ...
- LVS集群之DR模式 实现
ps:做 dr 模式 之前,先把之前做过的操作清空掉 1.ipvsadm -ln 查看规则 2.ipvsadm -C 清空规则 3.ipvsadm -ln 确认 4.iptables -t nat - ...
- LB集群
LB集群 1. LB.LVS介绍LB集群是load balance 集群的简写,翻译成中文就是负载均衡集群LVS是一个实现负载均衡集群的开源软件项目 LVS架构从逻辑上可分为调度层(Directo ...
- 负载均衡lvs_dr_tcp_http单调度
准备三台虚拟,均为CentOS6.5 x86_64注意,配置过程中,保持端口的一致性.director (eth0 192.168.1.189, vip eth0:0: 192.168.1.18) D ...
- 使用LVS实现负载均衡原理及安装配置详解
负载均衡集群是 load balance 集群的简写,翻译成中文就是负载均衡集群.常用的负载均衡开源软件有nginx.lvs.haproxy,商业的硬件负载均衡设备F5.Netscale.这里主要是学 ...
- 初探LVS NAT与DR
1. LB.LVS介绍LB集群是load balance 集群的简写,翻译成中文就是负载均衡集群 LVS是一个实现负载均衡集群的开源软件项目 LVS架构从逻辑上可分为调度层(Director).ser ...
- keepalive之LVS-DR架构
author:JevonWei 版权声明:原创作品 Keepalive实战之LVS-DR 实验目的:构建LVS-DR架构,为了达到LVS的高可用目的,故在LVS-DR的Director端做Keepal ...
随机推荐
- promise间隔时间添加dom
<!DOCTYPE html> <html> <head> <title></title> </head> <body&g ...
- Windows下使用pip安装mysql-python
安装的过程很煎熬,留个爪,希望对其他人有帮助. 先声明我安装前的电脑配置: Win10: Python2和Python3共存(备注一个好用的方法,感谢知乎大神:https://www.zhihu.co ...
- 自定义MVC框架---第二章
模型层的封装 模型层封装的原则 介绍: 模型层,也就是Model这一层,用来封装对数据库操作的封装 由于现在主流的编程思想还是OOP面向对象编程,也就是说项目的基本单位就是一个一个类文件,那么如何使用 ...
- Zabbix实战-简易教程(2)--整体架构图
- [PHP] PHP与Apache的模块配合说明
1.当PHP需要在Apache服务器下运行时 一般来说,它可以mod_php5模块的形式集成, 此时mod_php5模块的作用是接收Apache传递过来的PHP文件请求,并处理这些请求, 然后将处理后 ...
- Sql的基础知识(一)
一.基础 1.说明:创建数据库 CREATE DATABASE database-name 2.说明:删除数据库 drop database dbname 3.说明:备份 sql server --- ...
- hihoCoder #1038 : 01背包(板子题)
#1038 : 01背包 时间限制:20000ms 单点时限:1000ms 内存限制:256MB 描述 且说上一周的故事里,小Hi和小Ho费劲心思终于拿到了茫茫多的奖券!而现在,终于到了小Ho领取奖励 ...
- net+Oracle开发过程中遇到的小问题
最新的项目开始使用Oracle后,5个月之间遇到一些在SqlServer中没有遇到的问题,这里记录并贴上一些常用的解决办法. Oracle相关 一.数据库不同版本还原: 刚开始我们一直使用Oracle ...
- 分布式计算框架学习笔记--hadoop工作原理
(hadoop安装方法:http://blog.csdn.net/wangjia55/article/details/53160679这里不再累述) hadoop是针对大数据设计的一个计算架构.如果你 ...
- Java并发编程:Thread类的使用(转载)
一:线程的状态: 在正式学习Thread类中的具体方法之前,我们先来了解一下线程有哪些状态,这个将会有助于后面对Thread类中的方法的理解. 线程从创建到最终的消亡,要经历若干个状态.一般来说,线程 ...