LVS 四层 TCP/UDP 负载均衡器
目录
文章目录
LVS
针对高可伸缩、高可用网络服务的需求,我们给出了基于 IP 层和基于内容请求分发的负载平衡调度解决方法,并在 Linux 内核中实现了这些方法,将一组服务器构成一个实现可伸缩的、高可用网络服务的虚拟服务器。
虚拟服务器的体系结构如上图所示,一组服务器通过高速的局域网或者地理分布的广域网相互连接,在它们的前端有一个负载调度器(Load Balancer)。负载调度器能无缝地将网络请求调度到真实服务器上,从而使得服务器集群的结构对客户是透明的,客户访问集群系统提供的网络服务就像访问一台高性能、高可用的服务器一样。客户程序不受服务器集群的影响不需作任何修改。系统的伸缩性通过在服务机群中透明地加入和删除一个节点来达到,通过检 测节点或服务进程故障和正确地重置系统达到高可用性。由于我们的负载调度技术是在 Linux 内核中实现的,我们称之为 Linux 虚拟服务器(LVS,Linux Virtual Server)。
Linux Virtual Server 项目的目标 :使用集群技术和 Linux 操作系统实现一个高性能、高可用的服务器,它具有很好的可伸缩性(Scalability)、可靠性(Reliability)和可管理性(Manageability)。
简单的说,LVS 就是一个四层(传输层)负载均衡器,支持 TCP/UDP 的负载均衡。LVS 由工作在用户态的 ipvsadm(LVS 的命令行工具)与工作在内核态的 ipvs(LVS 提供服务的内核模块)组成。用户通过 ipvsadm 添加规则,再由 ipvs 来实现功能,ipvs 工作在 iptables 的 input 链上。
LVS 应用结构
三层结构:负载调度器、服务器池、共享存储。
架构对象:
- VS:Virtual Server,也称为 Director,负载均衡服务器
- RS:Real Server,真正的服务器,集群中各节点
- VIP:Director 向外部提供服务的 IP
- DIP:Director 向内部与 RS 通信的 IP
- RIP:真实服务器的 IP
- CIP:客户端的 IP
LVS 提供的三种模式
在调度器(Director)的实现技术中,IP 负载均衡技术是效率最高的。在已有的 IP 负载均衡技术中有通过网络地址转换(Network Address Translation)将一组服务器构成一个高性能的、高可用的虚拟服务器,我们称之为 VS/NAT 技术(Virtual Server via Network Address Translation),大多数商品化的 IP 负载均衡调度器产品都是使用此方法,如 Cisco 的 LocalDirector、F5 的 Big/IP 和 Alteon 的 ACEDirector。在分析 VS/NAT 的缺点和网络服务的非对称性的基础上,我们提出通过 IP 隧道实现虚拟服务器的方法 VS/TUN (Virtual Server via IP Tunneling),和通过直接路由实现虚拟服务器的方法 VS/DR(Virtual Server via Direct Routing),它们可以极大地提高系统的伸缩性。所以,IPVS 软件实现了这三种IP负载均衡技术,它们的大致原理如下(我们将在其他章节对其工作原 理进行详细描述)。
LVS-NAT
Virtual Server via Network Address Translation(VS/NAT,网络地址转换):通过网络地址转换(NAT),调度器重写请求三层 IP 数据包的目标地址,根据预设的调度算法,将请求分派给后端的真实服务器;真实服务器的响应报文通过调度器时,IP 数据包的源地址被重写,再返回给客户,完成整个负载调度过程。
详细流程:
特性:
- RS 的网关必须指向 DIP
- 依赖 Director 的路由转发功能,将 CIP、CPort 转换为 RIP、RPort
- Director 会成为系统的瓶颈所在
缺点:扩展性有限。当 RS 增长过多时,Director 将成为瓶颈,因为所有请求包和响应包都要经过 Director。
LVS-TUN
Virtual Server via IP Tunneling(VS/TUN,IP 隧道):采用 NAT 技术时,由于请求和响应报文都必须经过调度器地址重写,当客户请求越来越多时,调度器的处理能力将成为瓶颈。为了解决这个问题,调度器把请求报文通过 IP 隧道转发至真实服务器,而真实服务器将响应直接返回给客户,所以调度器只处理请求报文。由于一般网络服务应答比请求报文大许多,采用 VS/TUN 技术后,集群系统的最大吞吐量可以提高 10 倍。
原理:客户端到真实服务器的 IP 数据包总会经过 Director,经过 Director 时就会进行 NAT(ip, port)映射处理。
详细流程:
特性:
- RIP、DIP、VIP 必须为 Internet IP(公网)
- RS 网关不指向 Director
- 请求数据报文由 Director 转发至 RS,响应数据报文由 RS 直接发送至客户端
- 不支持端口映射
- RS 的 OS 必须支持隧道技术
- Director 与 RS、RS 与 RS 可以跨网段、跨机房
- 一般用于外网环境
缺点:隧道模式的 RS 需要合法 IP,这种方式需要所有的服务器都支持 “IP Tunneling” 协议,所以操作系统类型可能只局限在部分 Linux 上。
LVS_DR
Virtual Server via Direct Routing(VS/DR,直接路由):通过改写三层请求 IP 数据包的 MAC 地址,将请求发送到真实服务器,而真实服务器将响应直接返回给客户。同 VS/TUN 技术一样,VS/DR 技术可极大地提高集群系统的伸缩性。这种方法没有 IP 隧道的开销,对集群中的真实服务器也没有必须支持 IP 隧道协议的要求,但是要求调度器与真实服务器都有一块网卡连在同一物理网段上。
原理:所有 RS 都具有与 Director 上的 VIP 相同的 IP,一般配置到 lo 的子网卡设备上(RS 还会具有属于自己的真实 IP)。并且当客户端发出 IP 数据包时,所有的 RS 会抑制 lo 响应 ARP 请求,保证只有 Director 会接收到 IP 数据包,并且通过 Director 修改数据报文的二层数据帧的 MAC 地址指向一个根据特定的负载均衡算法调度的真实服务器。最后由该真实服务器直接响应到客户端(因为真实服务器同样具有 VIP 地址,所以源 IP 地址依旧是 VIP)。
详细流程:
特性:
- 必须保证前端路由通过 ARP 地址解析将数据包转发至 Director,数据报文不能直接被 RS 接收
- RS 可以使用私网 IP,也可以使用公网 IP
- Director 只负责调度
- Director 与 RS 必须在同一物理网段中,因为 Director 到 RS 是通过二层网络完成的
- 不支持端口映射
- RS 的网关为前端路由,不能为 Director
- RS 支持大多出 OS(可以拒绝 ARP 报文请求的操作系统)
缺点:Director 与 RS 必须在同一物理网段中
LVS 负载均衡算法
静态负载均衡
rr(round robin,轮询 ):把每次来自客户端的请求轮流分配到后端真实服务器。它无需记录当前所有连接的状态,是一种无状态调度。但也不会考虑每台服务器的处理能力。
wrr(weight round robin,加权轮询):由于每台服务器的配置、安装的业务应用等不同,其处理能力会不一样。所以,根据服务器的不同处理能力,给每个服务器分配不同的权值,使其能够接受相应权值数的服务请求。
sh(source hashing,源地址 HASH):实现会话绑定 session affinity,将同一客户端的请求发给同一个真实服务器,源地址散列调度算法正好与目标地址散列调度算法相反,它根据请求的源 IP 地址,作为散列键(Hash Key)从静态分配的散列表找出对应的服务器,若该服务器是可用的并且没有超负荷,将请求发送到该服务器,否则返回空。它采用的散列函数与目标地址散列调度算法的相同。它的算法流程与目标地址散列调度算法的基本相似,除了将请求的目标IP地址换成请求的源 IP 地址。
dh(destination hashing,目标地址 HASH):将同样的请求发送给同一个后端服务器,一般用于缓存服务器。简单的说,LB 集群后面又加了一层,在 LB 与真实服务器之间加了一层缓存服务器,通过这种方式来提高缓存的命中率。目标地址散列调度算法也是针对目标 IP 地址的负载均衡,它是一种静态映射算法,通过一个散列函数将一个目标 IP 地址映射到一台服务器。目标地址散列调度算法先根据请求的目标 IP 地址,作为散列键(Hash Key)从静态分配的散列表找出对应的服务器,若该服务器是可用的且未超载,将请求发送到该服务器,否则返回空。
动态负载均衡
lc(leash-connection,最少连接 ):最少连接调度算法是把新的连接请求分配到当前连接数最小的服务器。最小连接调度是一种动态调度短算法,它通过服务器当前所活跃的连接数来估计服务器的负载均衡,调度器需要记录各个服务器已建立连接的数目,当一个请求被调度到某台服务器,其连接数加 1,当连接中止或超时,其连接数减 1。当服务器的权值为 0 时,表示该服务器不可用而不被调度。
- 简单算法:active * 256 + inactive (谁的小选谁)
wlc(加权最少连接):lc 算法忽略了服务器的性能问题,有的服务器性能好,有的服务器性能差。通过加权重可以区分性能,各个服务器用相应的权值表示其处理性能。服务器的缺省权值为 1,可以动态地设置服务器的权限,加权最小连接调度在调度新连接时尽可能使服务器的已建立连接数和其权值成比例。由于服务器的性能不同,给性能相对好的服务器,加大权重,即会接收到更多的请求。
- 简单算法:(active * 256 + inactive) / weight(谁的小选谁)
sed(最少期望延迟):不考虑非活动连接,谁的权重大,我们优先选择权重大的服务器来接收请求,但会出现问题,就是权重比较大的服务器会很忙,但权重相对较小的服务器很闲,甚至会接收不到请求,所以便有了下面的算法 nq。
- 简单算法:(active + 1) * 256 / weight (谁的小选谁)
nq(never queue,永不排队):是 sed 的改进,不管权重多大都会被分配到请求。如果真实服务器的连接数为 0 就直接分配过去,不需要再进行 sed 运算。
LBLC(基于局部性的最少连接 ):针对请求报文目标 IP 地址的负载均衡调度,主要用于 Cache 集群系统,因为 Cache 集群中客户请求报文的目标 IP 地址是变化的,这里假设任何后端服务器都可以处理任何请求,算法的设计目标在服务器的负载基本平衡的情况下,将相同的目标 IP 地址的请求调度到同一个台服务器,来提高服务器的访问局部性和主存 Cache 命中率,从而调整整个集群系统的处理能力。
LBLCR(基于局部性的带复制功能的最少连接):针对目标 IP 地址的负载均衡,该算法根据请求的目标 IP 地址找出该目标 IP 地址对应的服务器组,按 “最小连接” 原则从服务器组中选出一台服务器,若服务器没有超载,将请求发送到该服务器;若服务器超载,则按 “最小连接” 原则从这个集群中选出一台服务器,将该服务器加入到服务器组中,将请求发送到该服务器。同时,当该服务器组有一段时间没有被修改,将最忙的服务器从服务器组中删除,以降低复制的程度。
LVS-ipvsadm 指令集
查看
查看帮助手册:
ipvsadm --help
查看 LVS 规则:
$ ipvsadm -Ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
-> RemoteAddress:Port Forward Weight ActiveConn InActConn
UDP 10.0.0.9:5678 rr
-> 192.168.1.8:5678 Masq 1 0 0
添加
- 添加集群服务:
$ ipvsadm -A -t 192.168.1.100:80 -s rr
- 添加真实服务器到集群服务:
ipvsadm -a -t 192.168.1.100:80 -r 172.16.16.2:80 -m -w 1
修改
- 修改集群服务:
ipvsadm -E -t 192.168.1.100:80 -s wlc
- 修改集群服务中的真实服务器:
ipvsadm -e -t 192.168.1.100:80 -r 172.16.16.2:80 -m -w 2
删除
- 删除集群服务:
ipvsadm -D -t 192.168.1.100:80
- 删除集群服务中的一个真实服务器:
ipvsadm -d -t 192.168.1.100:80 -r 172.16.16.2:80
- 删除所有集群服务
ipvsadm -C
参考文章
http://www.linuxvirtualserver.org/zh/lvs1.html
https://blog.csdn.net/dog250/article/details/17061277
https://cloud.tencent.com/developer/article/1004555
https://blog.csdn.net/john_f_lau/article/details/50961914
https://blog.csdn.net/Jmilk/article/details/79972281
https://blog.csdn.net/py_shell/article/details/53067847#commentBox
LVS 四层 TCP/UDP 负载均衡器的更多相关文章
- Keepalived + LVS-NAT 实现高可用四层 TCP/UDP 负载均衡器
目录 文章目录 目录 前文列表 在 LVS1/2 安装 Keepalived & LVS Keepalived + LVS-NAT 实现 TCP 负载均衡 IP 规划 网络架构参考 LVS1 ...
- Nginx基于TCP/UDP端口的四层负载均衡(stream模块)配置梳理
通过我们会用Nginx的upstream做基于http/https端口的7层负载均衡,由于Nginx老版本不支持tcp协议,所以基于tcp/udp端口的四层负载均衡一般用LVS或Haproxy来做.至 ...
- nginx篇高级用法之基于TCP/UDP的四层调度
nginx 从1.9版本开始支持基于TCP/UDP的四层调度,在编译nginx时使用--with-stream开启该模块 支持TCP/UDP调度时,支持给所有的软件做调度器,例如:nfs smb ft ...
- 异常处理与网络基础中的tcp,udp协议
# 异常处理: # 什么是异常?异常和错误的区别 # Error 语法错误 比较明显的错误 在编译代码阶段就能检测出来 # Iteration 异常 在执行代码的过程中引发的异常 # 异常发生之后的效 ...
- TCP&UDP&Socket讲解(上)
这两天我将整理TCP&UDP&Socket,大约花大家10-15分钟之间,希望本篇文章让大家对TCP使用的理解提高一个层次. 建议大家拿出纸和笔,画一下!!! 一.TCP 1. TCP ...
- day27 网络通信协议 tcp/udp区别
今日主要内容: 一.网络通信协议 二.tcp udp协议下的socket 一.网络通信协议 1.1互联网的本质就是一系列的网络协议 本机IP地址('127.0.0.1',xxxx) 互联网连接的电脑互 ...
- 以太网,IP,TCP,UDP数据包分析【转】
原文地址:http://www.cnblogs.com/feitian629/archive/2012/11/16/2774065.html 1.ISO开放系统有以下几层: 7 应用层 6 表示层 5 ...
- 以太网,IP,TCP,UDP数据包分析(此文言简意赅,一遍看不懂的话,耐心的看个10遍就懂了,感谢作者无私奉献)
1.ISO开放系统有以下几层: 7 应用层 6 表示层 5 会话层 4 传输层 3 网络层 2 数据链路层 1 物理层 2.TCP/IP 网络协议栈分为应用层(Application).传输层(Tra ...
- TCP UDP socket http webSocket 之间的关系
---恢复内容开始--- OSI&TCP/IP模型 要弄清tcp udp socket http websocket之间的关系,首先要知道经典的OSI七层模型,与之对应的是TCP/IP的四层模 ...
随机推荐
- Linux系统文件系统及文件基础篇
学习Linux,重难点在于掌握不同类别的文件系统及其作用.通过对Linux系统的安装,我们首先来了解下Linux系统里各个目录文件夹下的大致功能:主要的目录树的有/./root./home./usr. ...
- 记一次部署PHP遇到的编码问题故障
php开发给我项目和数据库,我按正常部署流程部署,开始发现之梦的后台登陆不了,后发现是属主属组不对,代码直接解压后是root的,更改后,后台能登陆,但部分显示乱码.后将正常的数据库文件重新导入后,显示 ...
- Java语言基础(4)
1 关系运算符:>,>=,<,<=,==,!= 案例:Demo1 public class Demo1 { //偶数:能被2整除的整数 //2,4,6,8,10... //整除 ...
- (转)Linux传输大文件(分割传输)
1.分拆为多个文件的命令: cat workspace_2018.tar.gz | split -b 1G - workspace_2018.tar.gz. 命令解释: workspace_2018. ...
- zencart产品属性dropmenu select只有一个选择项时自动变成radio单选的解决办法
includes\modules\classic\attributes.php 在大约786行代码 case ($products_options->RecordCount() == 1): 的 ...
- hdu2159 二维02bag
设f[i][j]为杀第j只怪时耐久度为i的最大经验值 完全背包类型:有N种物品和一个容量为V 的背包,每种物品都有无限件可用.放入第i种物品的耗费的空间是Ci,得到的价值是Wi. 求解:将哪些物品装入 ...
- Mongodb的基本操作-数据库 集合 文档的增删改查
数据库操作: //查看有哪些数据库 > show dbs local 0.078GB mydb 0.078GB //use操作将切换到一个数据库 如果数据库存在将直接切换 如果不存在 那么 ...
- php的工作原理
php有一种专门解释php的引擎称之为zend引擎 对于源程序,php引擎全部读入,而后进行词法分析,如果遇到不认识的词,就报parse_error (词法错误后终止分析) 词法分析后进入语法分析:语 ...
- 3、Grid、GridSplitter 网格分离器、SharedSizeGroup 共享尺寸组
Grid——网格布局,是WPF中最强大的布局容器,可以实现任何其他容器的布局.一个网格中只展示一个元素,若要展示多元素,可用容器 布局舍入:网格的边界有时会模糊,如三等分100宽度无法被整除.推荐设定 ...
- CF#356 div2 C 猜数字
C. Bear and Prime 100 time limit per test 1 second memory limit per test 256 megabytes input standar ...