LVS 负载均衡器总结
下面部分原理部分,是从网上摘录,源网址已经无从获取,我将其中一小部分模糊的说明加入了一些自己的理解,仅最大可能让全文容易阅读,也方便自己以后参考,若你是大牛希望能给我一些宝贵的建议,将理解有误的地方加以修改,若你跟我一样也在学习中,这会让你对LVS有更深入的了解,以便在此基础上,能快的进步。
-------------依然不忘:快就是慢,慢就是快!谨记。
负载均衡和高可用的简单介绍
1.LB(LoadBalancer)负载均衡,或称为调度器
硬件:F5 Big-IP , Citrix(思杰) Netscaler 最常用,A10
软件:LVS(4层):根据套接字来负载均衡。 套接字=IP + 端口
Nginx(7层) :更适合http,smtp,pop3,imap的负载均衡
Haproxy(7层) :根据用户请求的内容来调度。
它支持4层和7层的负载均衡,其更适合http,tcp(如:mysql,smtp)
LB集群主要以提高并发能力为根本
LB的功能:
1. 监控主服务器的存活情况
2. 故障切换时,完成挂载存储,启动服务,抢占VIP
2. HA(HighAvailability) 高可用集群
在线时间/(在线时间 + 故障恢复时间)
RHCS,heartbeat,pacemaker,rose(windows),PowerHA(AIX):目前这些使用都不多了。
主流是:Keepalived,目前官方也非常活跃,更新版本为2.x。
高可用指标:99%, 99.9%, 99.99%, 99.999%
#HA集群主要解决提高服务在线时间为根本
3. HPC(High-Performance Computing):高性能计算【HPC集群主要解决大任务计算的问题】
MapReduce
追踪任务完成的状态
Hadoop
LVS的工作原理:
LVS的两大组件:
用户空间: ipvsadm
内核空间: ipvs
当用户请求被网卡收到,该请求将最先来到PREROUTING链,接着进入INPUT链,当请求进入INPUT链后,ipvs将监听
到这个连接请求,并将该连接请求重定向到自己,接着根据内部调度规则进行匹配,若没有匹配到则将该请求原封不动的
转交给INPUT链,最终被INPUT链转发给监听在指定套接字(IP+Port)的应用程序。若匹配调度规则,则ipvs将修改该请求
的相关地址(NAT模型:修改VIP-->RIP; DR模型:修改目的MAC为RealSRV的MAC)后,重定向到POSTROUTING链上,最终
转发到后端的Real Server上。
LVS的四种工作模式介绍:
1.Virtual server via NAT(VS-NAT)
优点:集群中的物理服务器可以使用任何支持TCP/IP操作系统,物理服务器可以分配Internet的
保留私有地址,只有负载均衡器需要一个合法的IP地址。
缺点:扩展性有限。当服务器节点(普通PC服务器)数据增长到20个或更多时,负载均衡器
将成为整个系统的瓶颈,因为所有的请求包和应答包都需要经过负载均衡器。假使TCP包的
平均长度是536字节的话,平均每个包重新构建,延迟时间大约为60us(在Pentium处理器上计算的,
采用更快的处理器将使得这个延迟时间变短),负载均衡器的最大容许能力为8.93M/s,假定每台
物理服务器的平台容许能力为400K/s来计算,负载均衡器能为22台物理服务器提供计算。
解决办法:即使是是负载均衡器成为整个系统的瓶颈,如果是这样也有两种方法来解决它。
一种是混合处理: 如果采用混合处理的方法,将需要许多同属单一的RR(DNS的资源记录) DNS域。
另一种是采用Virtual Server via IP tunneling(即:Tunl模型)或Virtual Server via direct routing(即:DR模型) :
若使用此方式可以获得更好的可扩展性;也可以嵌套使用负载均衡器,在最前端的是VS-Tunneling或
VS-DR的负载均衡器,然后后面采用VS-NAT的负载均衡器。
2.Virtual server via IP tunneling(VS-TUN)
我们发现,许多Internet服务(例如WEB服务器)的请求包很短小,而应答包通常很大。
优点:负载均衡器只负责将请求包分发给物理服务器,而物理服务器将应答包直接发给用户。所以,
负载均衡器能处理很巨大的请求量,这种方式,一台负载均衡能为超过100台的物理服务器服务,
负载均衡器不再是系统的瓶颈。使用VS-TUN方式,如果你的负载均衡器拥有100M的全双工网卡的话,
就能使得整个Virtual Server能达到1G的吞吐量。
缺点:但是,这种方式需要所有的服务器支持"IP Tunneling"(IP Encapsulation)协议,我仅在Linux系统上
实现了这个,目前其它操作系统的支持还在探索之中。
3.Virtual Server via Direct Routing(VS-DR)
优点:和VS-TUN一样,负载均衡器也只是分发请求,应答包通过单独的路由方法返回给客户端。与VS-TUN相比,
VS-DR这种实现方式不需要隧道结构,因此可以使用大多数操作系统做为物理服务器,其中包括:
Linux、Solaris 、FreeBSD 、windows、IRIX 6.5;HPUX11等。
缺点:要求负载均衡器的网卡必须与物理网卡在一个物理段上。
4. LVS-FullNAT
通过同时修改请求报文的源IP地址和目标IP地址进行转发(CIP --> DIP, VIP --> RIP )
此模式在跨机房,跨多个不同网络时,FullNAT模式也可实现调度。
因为此时实际是将IP包的源和目标都修改了,就好象调度器直接去访问远端RealServer,远端RealServer只需要
按照自己本地路由,找到网关,将包回应给远端调度器,远端调度器再次将回应包,返回给用户。
(1) VIP是公网地址,RIP和DIP是私网地址,且通常不在同一IP网络;因此,RIP的网关一般不会指向DIP
(2) RS收到的请求报文源地址是DIP,因此,只需响应给DIP;但Director还要将其发往Client
(3) 请求和响应报文都经由Director
(4) 支持端口映射
注意:此类型kernel默认不支持
此中使用场景较少,仅阿里云内部的SLB使用此种模式.
对上面三种IP负载均衡技术的优缺点比较:
杂项 VS/NAT VS/TUN VS/DR
服务器操作系统 任意 支持隧道 多数(支持Non-arp )
服务器网络 私有网络 局域网/广域网 局域网
服务器数目(100M网络) 10-20 100 多(100)
服务器网关 负载均衡器 自己的路由 自己的路由
效率 一般 高 最高
LVS的调度算法介绍:
1.轮叫调度(Round Robin)(简称rr)
不考虑RealServer实际连接数,系统负载,只是轮流给每个RealServer分配请求.
2.加权轮叫(Weighted Round Robin)(简称wrr)
根据实际RealServer的主机配置,将主机配置强的RealServer更大的权重,让调度器分配更多请求给它处理,
同时调度器可自动询问RealServer的负载请求,并动态调整其权重值.
3.最少链接(Least Connections)(LC) : 将新的链接请求分配到当前链接数最小的服务器上.
调度器需要记录每个Server已经建立链接的数目,当调度器给A调度一个请求,则将A的总链接数+1,当链接中止/超时,
则总链接-1。
缺陷:
1. Server性能相同:可平滑分发负载,但不能将长链接的请求发向同一Server.
2. Server性能不同:该算法并不理会。
因为TCP连接处理请求后会进入TIME_WAIT状态,TCP的TIME_WAIT一般为2分钟,此时连接还占用服务器的资源,
所以会出现这样情形,性能高的服务器已处理所收到的连接,连接处于TIME_WAIT状态,而性能低的服务器已经忙于
处理所收到的连接,还不断地收到新的连接请求。
4.加权最少链接(Weighted Least Connections)(WLC)
在集群系统中的服务器性能差异较大的情况下,调度器采用“加权最少链接”调度算法优化负载均衡性能,具有较高权值
的服务器将承受较大比例的活动连接负载。调度器可以自动问询真实服务器的负载情况,并动态地调整其权值。
5.目标地址散列(Destination Hashing)(DH)
“目标地址散列”调度算法根据请求的目标IP地址,作为散列键(Hash Key)从静态分配的散列表找出对应的服务器,
若该服务器是可用的且未超载,将请求发送到该服务器,否则返回空。
补充:
目标地址散列调度(Destination Hashing Scheduling)算法,是针对目标IP地址的负载均衡,它是一种静态映射算法,
通过一个散列函数将一个目标IP地址映射为一台服务器。
目标地址散列算法会先根据请求的目标IP,计算散列哈希(hash key),从静态分配的散列表找出对应的服务器,
若该服务器是可用且未超载,则将请求发给该服务器,否则返回空,重新调度。
哈希散列表可理解如下:
在此算法中,默认它使用256个哈希桶来将目标IP的哈希值前1个字节划分,平均分成256份,每一份
就是一个范围,这样我只要计算出目标IP的哈希值,马上就能确定它应该在那个桶中,然后定位到该桶,
这样在做小范围表扫描,速度就非常快。另外还需要注意:在此算法中它类似于一致性哈希算法,
它会事先将所有可用服务器均匀循环分布到每个桶中,更简单理解就是本来就是一张有256条记录的大表,
该表中事先将所有可用服务器全部顺序循环插入到每一行记录中,然后将这张大表拆分成多个小表,
并按前面的方法,将一个范围值作为进入该小表的条件,这样就可以最大限度均匀每一台服务器的负载。
6.源地址散列(Source Hashing)(SH)
“源地址散列”调度算法根据请求的源IP地址,作为散列键(Hash Key)从静态分配的散列表找出对应的服务器,
若该服务器是可用的且未超载,将请求发送到该服务器,否则返回空。
7.基于局部性的最少链接(Locality-Based Least Connections)(LBLC)
“基于局部性的最少链接”调度算法是针对目标IP地址的负载均衡,目前主要用于Cache集群系统。该算法根据
请求的目标IP地址找出该目标IP地址最近使用的服务器,若该服务器是可用的且没有超载,将请求发送到该服务器;
若服务器不存在,或者该服务器超载且有服务器处于一半的工作负载,则用“最少链接” 的原则选出一个可用的服务器,
将请求发送到该服务器。
8.带复制的基于局部性最少链接(Locality-Based Least Connections with Replication)(LBLCR)
“带复制的基于局部性最少链接”调度算法也是针对目标IP地址的负载均衡,目前主要用于Cache集群系统。
它与LBLC算法的不同之处是它要维护从一个目标 IP地址到一组服务器的映射,而LBLC算法维护从一个目标IP
地址到一台服务器的映射。该算法根据请求的目标IP地址找出该目标IP地址对应的服务器组,按“最小连接”原则
从服务器组中选出一台服务器,若服务器没有超载,将请求发送到该服务器;
若所选服务器超载(超负载的标准是:该服务器正在处理的连接总数 > 其权重值的2倍),则按“最小连接”原则
从这个集群中选出一台服务器,将该服务器加入到服务器组中,将请求发送到该服务器。同时,当该所选服务器组
有一段时间没有被修改过,则所选服务器加入新缓存复制组后,很可能导致复制流量大量增加,因此将最忙的服务器
从服务器组中删除,以降低复制流量的程度。
我的理解:
因为缓存的热点数据可能仅有20%是有效的,最繁忙的服务器缓存的数据量很大,但有效的经常被访问的热点
数据并不一定很多,因此总体考虑,该组中其它服务器上现有的缓存数据可应对一定量的请求,即便损失最繁忙的
服务器的数据也不会造成太大影响,但若留着它,新加入到节点,可能需要跟它同步缓存数据,将会导致更大的网络
带宽被占用,很可能导致整个组的不可用,因此宁愿损失一小部分缓存数据,也不能让整体不可用。
【注意: 以上理解不一定正确,仅供参考】
9. 最短的期望的延迟(Shortest Expected Delay Scheduling SED)(SED)
基于wlc算法。这个必须举例来说了
ABC三台机器分别权重1,2,3 ,连接数也分别是1,2,3。那么如果使用WLC算法的话一个新请求进入时
它可能会分给ABC中的任意一个,使用sed算法后会进行这样一个运算
A:(1+1)/1 = 2
B:(1+2)/2 = 1.5
C:(1+3)/3 = 1.3334
根据运算结果,把连接交给C,因为C的处理延时最小 。
10.最少队列调度(Never Queue Scheduling NQ)(NQ)
无需队列。如果有台 realserver的连接数=0就直接分配过去,不需要在进行sed运算。
下面对三种模式做示例配置说明:
1. LVS-NAT模型:
简单的来说,LVS的NAT模型如下图:
本质是多目标IP的DNAT,通过将请求报文中的目标地址和目标端口修改为通过调度算法挑出
的RS的RIP和PORT实现转发。
LVS-NAT模型:
(1)RealServer和调度器应在同一个IP网络,且应使用私网地址;RealServer的网关要指向调度器的IP
(2)调度器(Director)是RealServer的网关, 因此请求和响应报文都将由调度器转发,因此调度器容易成为系统瓶颈.
(3)支持端口映射,可修改请求报文的目标PORT
(4)LVS必须是Linux系统,RS可以是任意OS系统
上面拓扑图的配置如下:
Client:
使用我的物理机,将默认网关指向ISP,当然使用VM也可以.
ISP:
ip addr add dev eth0 192.168.10.254/24
ip addr add dev eth1 1.0.0.1/24
Systemctl stop firewalld #关闭firewalld,手动使用iptables来管理防火墙.
iptables -t nat -A POSTROUTING -s 192.168.10.0/24 !-d 192.168.10.0/24 -j MASQUERADE
此实验中让Client可访问企业Web,也可用简单的方式:
在ISP和企业防火墙直接互相将默认网关指向对方.
企业FireWall:
ip addr add dev eth0 1.0.0.2/24
ip addr add dev eth1 192.168.80.254/24
systemctl stop firewalld
iptables -t nat -A PREROUTING -d 1.0.0.2 -p tcp --dport 80 -j DNAT --to-destination 192.168.80.10:80
echo "net.ipv4.ip_forward = 1" >> /etc/sysctl.conf
sysctl -p
Director LVS:
ip addr add dev eth0 192.168.80.10/24
firewall-cmd --add-service=http --permanent ; firewall-cmd --reload
yum install -y ipvsadm
ipvsadm -A -t 192.168.80.10:80 -s wrr
ipvsadm -a -t 192.168.80.10:80 -r 192.168.80.11:8080 -m -w 3
ipvsadm -a -t 192.168.80.10:80 -r 192.168.80.12:8080 -m -w 2
ipvsadm -a -t 192.168.80.10:80 -r 192.168.80.13:8080 -m
ipvsadm -L -n (后来截的图,权重不符)
三台RealServer上只需配置IP,并安装httpd软件,然后启动即可.
firewall-cmd --add-port=8080/tcp --permanent; firewall-cmd --reload
在任意一台上查看httpd的日志:
可以看到CIP是ISP上的IP,即客户端的默认网关外网接口的IP.
2. LVS-DR模型
实验拓扑说明:
这个拓扑中必须有一个独立的网关,因为用户请求发来时,GW将请求发给VIP,而VIP只有调度器会响应,
GW将请求发给调度器,【注意:调度器的VIP,尽量使用32位掩码,这非必须】,在DR模式下,调度器上与
GW连接的接口上有两个IP,一个是VIP(Virtual IP),一个是DIP(Director IP); 当调度器收到来自GW的包后,
发现目标是VIP,并且访问的服务与自身定义的虚拟服务一样,接着调度器将数据包中的源MAC修改为自己的MAC,
而目的MAC的修改是 根据调度算法,选择一台Real Server后,将该Real Server的MAC填写在目的MAC上,
接着将包发给后端服务器,如此例为Real Server 1,RIP1收到后将解包发现其IP是本地loopback的接口IP,因此RIP1
继续解包,最终将包送给上层服务,如本例是Web服务;Web开始进行响应,最终封包时,将源MAC写为自己,
目的MAC写为GW,源IP写VIP,目的IP写Client IP,并发给GW出去响应。
(1)DIP, RIP 和 VIP : 可在同一网段,也可不在同一网段 ,但他们必须在同一个交换网络。
(2)Director(调度器)和RealServer他们的网关都必须指向真实网关(Firewall),并且都要配置VIP.
(3)Director可以响应ARP查询VIP的MAC,但RealServer一律都不回应查询VIP的ARP请求.
以上拓扑图的配置如下:
Client:
将默认网关指向ISP
ISP:
ip addr add dev eth0 192.168.10.254/24
ip addr add dev eth1 1.0.0.1/24
Systemctl stop firewalld #关闭firewalld,手动使用iptables来管理防火墙.
iptables -t nat -A POSTROUTING -s 192.168.10.0/24 !-d 192.168.10.0/24 -j MASQUERADE
此实验中让Client可访问企业Web,也可用简单的方式:
在ISP和企业防火墙直接互相将默认网关指向对方.
企业FireWall:
ip addr add dev eth0 1.0.0.2/24
ip addr add dev eth1 192.168.80.254/24
systemctl stop firewalld
iptables -t nat -A PREROUTING -d 1.0.0.2 -p tcp --dport 80 -j DNAT --to-destination 192.168.80.10:80
echo "net.ipv4.ip_forward = 1" >> /etc/sysctl.conf
sysctl -p
Director LVS:
ip addr add dev eth0 192.168.80.10/24
ip addr add dev lo 192.168.80.66/32
firewall-cmd --add-service=http --permanent ; firewall-cmd --reload
yum install -y ipvsadm
ipvsadm -A -t 192.168.80.10:80 -s wrr
ipvsadm -a -t 192.168.80.10:80 -r 192.168.80.11:8080 -g -w 3
ipvsadm -a -t 192.168.80.10:80 -r 192.168.80.12:8080 -g -w 2
ipvsadm -a -t 192.168.80.10:80 -r 192.168.80.13:8080 -g
三台RealServer:
ip addr add dev eth0 192.168.80.11/24 #三台分别配置11,12,13
ip addr add dev lo 192.168.80.66/32 #不一定非要是32,可以是24.
#下面配置实际上是只允许lo接口收到与lo直接连接的接口发来的ARP请求时,
#才响应关于192.168.80.66的MAC响应.同时不在发生免费ARP做自问自答.
#向网络中宣告我要使用192.168.80.66这个IP了。
echo "net.ipv4.conf.all.arp_ignore = 1" >> /etc/sysctl.conf
echo "net.ipv4.conf.all.arp_announce = 2" >> /etc/sysctl.conf
echo "net.ipv4.conf.lo.arp_ignore = 1" >> /etc/sysctl.conf
echo "net.ipv4.conf.lo.arp_announce = 2" >> /etc/sysctl.conf
sysctl -p
firewall-cmd --add-port=80/tcp --permanent; firewall-cmd --reload
查看通信过程的提示:
1. 在调度器或RealServer使用
tcpdump -i 接口 -n -nn port 80 -w director.cap
#这样可捕获通信过程中的所有包,包括调度器收到的,转发给RealServer的,
以及RealServer发生给Firewall的.
#若向单独查看调度器收到和发送的包,在RealServer上查看自己收到的包和发送的包可:
tcpdump -i 接口 -n -nn -p port 80
#-p : 仅捕获发给自己的包,非自己的不要.
2. 在Firewall上查看所有的MAC
ip addr show dev eth1 |grep link/ether
ip neigh
3. 使用Wireshare查看时,通过添加自定义列来查看MAC的变化
3. LVS Tunnel模式
拓扑:
LVS Tunnel模式配置要点:
(1) LVS调度节点、RealServer节点、VIP都必须是公网IP
(2) LVS调度节点、RealServer节点都必须配置VIP
(3) 调度节点 与 RS间必须打通一条隧道
(4) 客户端请求发往调度节点,调度节点通过隧道将请求报文封装起来发给RS,
RS在隧道另一端去掉GRE封装,发现是去往VIP的,随即转给tunl0处理,最终Tunl0
将响应报文从RS的默认路由发出。
(5) 调度节点要在所有设备上启用 只接收网关发送的ICMP的重定向报文。
(6) 调度节点 和 RS上都必须关闭路由转发(ip_forward), RS上关闭ARP响应和返回路径过滤
(即:源是A口,要从B口出,B口不丢该包).
LVS Tunnel环境搭建
(1) 路由器模拟:
echo 1 > /proc/sys/net/ipv4/ip_forward
ifconfig eth0 20.0.0.254/24 up
ifconfig eth1 30.0.0.254/24 up
ifconfig eth2 40.0.0.254/24 up
ifconfig eth3 192.168.10.254/24 up
iptables -t nat -A POSTROUTING -s 192.168.10.0/24 ! -d 192.168.10.0/24 -j SNAT --to 192.168.10.254
(2) LVS调度节点
#关闭路由转发(默认是关闭.)
echo 0 > /proc/sys/net/ipv4/ip_forward
#在所有接口、默认接口、eth0上都打开 仅接收来自网关的ICMP重定向.
#注:默认应该是打开的,从抓包和分析上看,ICMP重定向是必须,因为客户端访问的调度器的子接口,
# 而调度器的主接口IP是20.0.0.1,子(次)接口IP20.0.0.2,网关通过ARP发现,客户端访问的VIP20.0.0.2
# 是在调度器接口上,因此,将去往20.0.0.2的请求重定向给调度器。
echo 1 > /proc/sys/net/ipv4/conf/all/send_redirects
echo 1 > /proc/sys/net/ipv4/conf/default/send_redirects
echo 1 > /proc/sys/net/ipv4/conf/eth0/send_redirects
#先关闭所有接口,用到那个激活那个。
service network stop
ifconfig eth0 20.0.0.1/24 up
ifconfig eth0:0 20.0.0.2 broadcast 20.0.0.2 netmask 255.255.255.255 up
ip tunnel add tun1 mode gre remote 30.0.0.1 local 20.0.0.1
ifconfig tun1 10.0.0.1/30 up
ip tunnel add tun2 mode gre remote 40.0.0.1 local 20.0.0.1
ifconfig tun2 10.0.0.5/30 up
#注:
GRE(通用路由封装) : https://blog.csdn.net/taozpwater/article/details/9774123
简单理解: GRE就是在将原始IP包,再次封装在GRE内部, 接着在再次将GRE包封装到新IP包中,
然后在加入如链路层帧头,最后发出去.其实GRE,VxLAN,NVGRE,IPSec都可认为是一种VPN.
MAC帧[IP头[GRE头【IP头[TCP头[应用协议数据]]】]]
注意:
GRE封装后,若后端是调度器,则该调度器将永远只能看到一个IP来访问自己,因此要注意使用调度算法.
#添加默认路由
route add default gw 20.0.0.254
#添加主机路由,以便Linux收到去往20.0.0.2的报文后,知道转到那个接口上。
route add -host 20.0.0.2 dev eth0:0
yum install ipvsadm
ipvsadm -A -t 20.0.0.2:80 -s rr
ipvsadm -a -t 20.0.0.2:80 -r 10.0.0.2 -i #注意:这里必须使用tunnel模式,即“-i”
ipvsadm -a -t 20.0.0.2:80 -r 10.0.0.6 -i
(2) RealServer1的配置:
ifconfig eth0 30.0.0.1/24 up
ifconfig tunl0 20.0.0.2 broadcast 20.0.0.2 netmask 255.255.255.255 up
#注意:一定要添加一条主机路由,否则Linux的tun0接口收到GRE封包后,
# 解开发现是一个去往20.0.0.2的IP报文,查本机转发表若没有找到,就可能丢弃该报文.
# 那么客户端可能就打不开网页了。
route add -host 20.0.0.2 dev tunl0
ip tunnel add tun0 mode gre remote 20.0.0.1 local 30.0.0.1
ifconfig tun0 10.0.0.2/30 up
#关闭路由转发
echo 0 > /proc/sys/net/ipv4/ip_forward
#arp_ignore: 定义接收到ARP请求时的响应级别;
# 0:只要本地配置的有相应地址,就给予响应;
# 1:仅响应目的IP配置在此接口上的ARP广播请求
#arp_announce: 定义将自己的地址向外通告时的通告级别(此行为仅发生在网络设备刚接入网络时)
# 0:将本地任何接口上的任何地址向外通告;
# 1:试图仅向目标网络通告与其网络匹配的地址;
# 2:仅向与本地接口上地址匹配的网络进行通告;
echo 1 > /proc/sys/net/ipv4/conf/tunl0/arp_ignore
echo 2 > /proc/sys/net/ipv4/conf/tunl0/arp_announce
echo 1 > /proc/sys/net/ipv4/conf/all/arp_ignore
echo 2 > /proc/sys/net/ipv4/conf/all/arp_announce
#关闭tunl0、eth0上返回路径过滤
echo 0 > /proc/sys/net/ipv4/conf/tunl0/rp_filter
echo 0 > /proc/sys/net/ipv4/conf/eth0/rp_filter
echo 0 > /proc/sys/net/ipv4/conf/all/rp_filter
(2) RealServer2的配置:
ifconfig eth0 40.0.0.1/24 up
ifconfig tunl0 20.0.0.2 broadcast 20.0.0.2 netmask 255.255.255.255 up
#注意:一定要添加一条主机路由,否则Linux的tun0接口收到GRE封包后,
# 解开发现是一个去往20.0.0.2的IP报文,查本机转发表若没有找到,就可能丢弃该报文.
# 那么客户端可能就打不开网页了。
route add -host 20.0.0.2 dev tunl0
ip tunnel add tun0 mode gre remote 20.0.0.1 local 40.0.0.1
ifconfig tun0 10.0.0.6/30 up
#关闭路由转发
echo 0 > /proc/sys/net/ipv4/ip_forward
echo 1 > /proc/sys/net/ipv4/conf/tunl0/arp_ignore
echo 2 > /proc/sys/net/ipv4/conf/tunl0/arp_announce
echo 1 > /proc/sys/net/ipv4/conf/all/arp_ignore
echo 2 > /proc/sys/net/ipv4/conf/all/arp_announce
#关闭tunl0、eth0上返回路径过滤
echo 0 > /proc/sys/net/ipv4/conf/tunl0/rp_filter
echo 0 > /proc/sys/net/ipv4/conf/eth0/rp_filter
echo 0 > /proc/sys/net/ipv4/conf/all/rp_filter
LVS调度器收到来客户端的访问报文:
#先重定向
#调度后发送的报文,注意每个IP报文内部的内容,在该IP报文看来都仅仅是数据而已。
#RealServer2收到GRE报文解封装后,将该报文发给tun0接口后:
#RealServer2的tun0接口去掉IP层后,发现还是IP报文,随机转发给tunl0接口:
#回应
LVS 负载均衡器总结的更多相关文章
- LVS负载均衡器DR模型的实现
概述: 在大规模互联网应用中,负载均衡设备是必不可少的一个节点,源于互联网应用的高并发和大流量的冲击压力,我们通常会在服务端部署多个无状态的应用服务器和若干有状态的存储服务器(数据库.缓存等等) 一. ...
- LVS 负载均衡器理论基础及抓包分析
LVS 是 Linux Virtual Server 的简写,即 Linux 虚拟服务器,是一个虚拟的服务器集群系统.本项目在1998年5月由章文嵩博士成立,是中国国内最早出现的自由软件项目之一.(百 ...
- lvs部署-DR模式
DR模式 角色 IP地址 备注 LVS负载均衡器 192.168.119.132 VIP:192.168.119.150 ipvsadm http_Real server 192.168.119 ...
- lvs+keepalived 负载均衡
LVS是一个开源的软件,可以实现LINUX平台下的简单负载均衡.LVS是Linux Virtual Server的缩写,意思是Linux虚拟服务器.目前有三种IP负 载均衡技术(VS/NAT.VS/T ...
- 负载均衡集群企业级应用实战—LVS
一.负载均衡集群介绍 1.集群 ① 集群(cluster)技术是一种较新的技术,通过集群技术,可以在付出较低成本的情况下获得在性能.可靠性.灵活性方面的相对较高的收益,其任务调度则是集群系统中的核心技 ...
- 实现基于LVS负载均衡集群的电商网站架构
背景 上一期我们搭建了小米网站,随着业务的发展,网站的访问量越来越大,网站访问量已经从原来的1000QPS,变为3000QPS,网站已经不堪重负,响应缓慢,面对此场景,单纯靠单台LNMP的架构已经无法 ...
- 项目详解2—LVS负载均衡详解
一.负载均衡集群介绍 1.集群 ① 集群(cluster)技术是一种较新的技术,通过集群技术,可以在付出较低成本的情况下获得在性能.可靠性.灵活性方面的相对较高的收益,其任务调度则是集群系统中的核心技 ...
- Linux之LVS 20180708
LVS负载均衡项目,是Linux开源项目中专门用于负载均衡的,主要应用在client访问server时,通过LVS来分配对应的server来响应client的请求.client访问时,都是访问的LVS ...
- 项目实战:负载均衡集群企业级应用实战—LVS详解
目录 一.负载均衡集群介绍 二.lvs 的介绍 三.LVS负载均衡四种工作模式 1.NAT工作模式 2.DR工作模式 3.TUN工作模式 4.full-nat 工作模式 5.四者的区别 四.LVS i ...
随机推荐
- 九度OJ 1114:神奇的口袋 (DFS、DP)
时间限制:1 秒 内存限制:32 兆 特殊判题:否 提交:948 解决:554 题目描述: 有一个神奇的口袋,总的容积是40,用这个口袋可以变出一些物品,这些物品的总体积必须是40.John现在有n个 ...
- Algorithm: Euler function
欧拉函数. phi(n)表示比n小的与n互质的数的个数,比如 phi(1) = 1; phi(2) = 1; phi(3) = 2; phi(4) = 2; phi(5) = 4; 性质: 1. 如果 ...
- ssh服务器终端乱码
在使用 iTerm2 ssh 连接远程服务器的终端时,终端中文显示乱码.但是本地使用却没有出现中文乱码的问题,在网络上寻找了一番发现应该是服务器字符集和本地 iTerm2 设置的字符集不一致导致的,于 ...
- "php"正则表达式使用总结
一直对php的正则表达式的理解不是很深刻,而且是很一知半解,所以把自己用的的正则表达式总结下,以后方便查阅,以后遇到正则表达式的时候然后再追加到该文档的后面: /** * php常用正则表达式 * p ...
- Ubuntu下codeblocks编译器程序执行对话框内能进行粘贴编辑操作的指令
如这个: gnome-terminal -t $TITLE -x
- HDU5877 Weak Pair dfs + 线段树/树状数组 + 离散化
题目链接:http://acm.hdu.edu.cn/showproblem.php?pid=5877 题意: weak pair的要求: 1.u是v的祖先(注意不一定是父亲) 2.val[u]*va ...
- HDU5965 扫雷 —— dp递推
题目链接:http://acm.hdu.edu.cn/showproblem.php?pid=5965 题解: 1. 用a[]数组记录第二行的数字,用dp[]记录没一列放的地雷数.如果第一列的地雷数d ...
- 基于BASYS2的VHDL程序——数字钟(最终版)
转载请注明原地址:http://www.cnblogs.com/connorzx/p/3674178.html 调时电路正常工作.一切正常.发现做FPGA还是得从数电的思路思考,设置一个预置使能端,预 ...
- 恶心的struts标签,等我毕业设计弄完了,瞧我怎么收拾你。
1.从java action中到页面中获取变量值的struts标签 获取从bean中定义的对象中属性的值: <s:property value="#request.cardTo.acc ...
- 【转载】malloc和new
1.malloc与free是C++/C语言的标准库函数,new/delete是C++的运算符.它们都可用于申请动态内存和释放内存2.对于非内部数据类型的对象而言,光用maloc/free无法满足动态对 ...