openstack octavia的实现与分析(一)openstack负载均衡的现状与发展以及lvs,Nginx,Haproxy三种负载均衡机制的基本架构和对比
【负载均衡】
大量用户发起请求的情况下,服务器负载过高,导致部分请求无法被响应或者及时响应。
负载均衡根据一定的算法将请求分发到不同的后端,保证所有的请求都可以被正常的下发并返回。
【主流实现-LVS】
LVS 是 Linux Virtual Server 的简称,也就是 Linux 虚拟服务器,已经是 Linux 标准内核的一部分。
采用IP负载均衡技术和基于内容请求分发。
调度器具有很好的吞吐率,将请求均衡得转移到不同的服务器上执行,且调度器可以自动屏蔽掉故障的服务器,从而将一组服务器构成一个高可用,高性能的服务器集群。
*负载均衡机制
1. LVS是四层负载均衡,也就是说在传输层上,LVS支持TCP/UDP。由于是四层负载均衡,所以相对于其他的高层负载均衡而言,对于DNS域名轮流解析,应用层负载的调度,客户端的调度等,它的效率是相对较高的。
2. 四层负载均衡,主要通过报文的目标地址和端口。(七层负载均衡又称为"内容交换",主要是通过报文中真正有意义的应用层内容)
3. LVS的转发主要通过修改IP地址(NAT模式,包括SNAT和DNAT),修改目标MAC(DR模式)来实现。
*负载均衡模式-NAT模式
NAT(Network Address Translation)是一种外网和内网地址映射的技术。
NAT模式下,网络数据包的进出都要经过LVS的处理。LVS需要作为RS(真实服务器)的网关。
当包从Client到达LVS时,LVS做DNAT(目标地址转换),将D-IP(目的地址)改变为RS的IP。
RS处理完成,将包返回的时候,S-IP(源地址)是RS,D-IP是Client的IP。
到达LVS做网关中转时,LVS会做SNAT(源地址转换),将包的S-IP改为VIP。
*负载均衡模式-DR模式
DR(直接路由)模式下需要LVS和RS绑定同一个集群(RS通过将VIP绑定在loopback实现)。
请求由LVS接受,返回的时候由RS直接返回给Client。
当包到LVS的时候,LVS将网络帧的MAC地址修改为某台RS的MAC,此包会被转发到对应的RS上面进行处理。
此时S-IP和D-IP都没有发生改变。
RS收到LVS转发的包时,链路层发现MAC地址是自己的,网络层发现IP地址也是自己的,于是包被合法接受,RS不感知LVS。
当包返回时,RS直接返回给Client,不再经过LVS。
由于RS响应的数据包是直接返回给Client的,所以有效得避免了负载均衡服务器的带宽成为瓶颈。
*负载均衡模式-IP隧道模式
隧道模式有点类似与VPN,使用网络分层的原理,在从客户端发来的数据包的基础上,封装一个新的IP头标记(不完整,只有目的IP)发送给RS。
RS收到后,先把DR发过来的数据包的头解开,还原数据包。处理完成后,直接返回给Client。
*负载均衡模式-总结
综上所述,DR模式具有更好的性能,也是目前大型网站比较通用的一种模式。
*LVS调度算法
限于篇幅,只介绍部分算法。
1. 轮询调度
2. 加权轮询调度
3. 最小连接数调度
4. 加权最小连接数调度
5. 基于局部性的最少连接(LBLC)
该算法主要用于Cache集群系统。
该算法根据请求的D-IP找出该D-IP地址最近使用的服务器地址,如果此服务器可用,则发送给此服务器。如果不可用,则使用最小连接数算法选择一个服务器发送报文。
6. 带复制的基于局部性的最少连接(LCLBR)
它与LBLC算法的不同之处是它要维护从一个目标IP地址到一组服务器的映射,而LBLC算法维护从一个目标IP地址到一台服务器的映射。
在LBLC算法里面,某些热门站点报文较多,可能服务器很快会达到饱和,然后切换到第二台又会很快达到饱和,然后后端服务器就一直在切换,造成资源不必要的浪费。
LCLBR里面,单个服务器变成了一组服务器,就会有效避免这种情况。
7. 目标地址散列
8. 源地址散列
*LVS的优点
1. 抗负载能力强,由于工作在传输层上,只做分发,无流量产生,所以它在所有的负载均衡里面性能是最强的,对内存和CPU的消耗也比较低。
2. 配置性较低,减少人为出错的概率,但是也相应减少了人为自主性。
3. 工作稳定,自身有完整的双机热备方案,如:LVS + Keepalived
4. 无流量,保证IO不会受到影响。
*LVS的缺点
1. 软件本身不支持正则表达式处理,不能做动静分离。
2. 网站应用比较庞大的时候,LVS/DR+Keepalive实施较为复杂。
【主流实现-Nginx】
Nginx是一个很强大的高性能Web和反向代理服务器。
最大的优势在于高负载情况下对内存和CPU的低消耗。
在高并发的情况下,Nginx是Apache服务器不错的替代品。
*传统基于进程或线程的模型
传统基于进程或线程的模型(如Apache)在处理并发时会为每一个连接建立一个单独的进程或线程。这种方法会在网络传输或者I/O操作上阻塞。
对于应用来讲,在内存和CPU的使用上效率都是非常低的。
而且,生成一个单独的进程/线程还需要为其准备新的运行环境(主要包括分配堆栈内存),以及上下文执行环境。
创建这些都消耗额外的CPU时间,这最终也会因为线程上下文来回切换导致性能非常差。
*Nginx架构设计
Nginx的架构设计是采用模块化的,基于事件驱动,异步,单线程且非阻塞。
Nginx大量使用多路复用和事件通知,nginx启动之后,会在系统中以 daemon(守护进程) 的方式在后台运行,包括一个master进程和多个worker进程。
所有的进程都是单线程的,进程间通信主要通过共享内存的方式。
多个连接,是通过worker进程中高效回环(run-loop)机制来处理的。对于每个worker进程来说,每秒钟可以处理上千个请求和连接。
*Nginx负载均衡
Nginx 负载均衡主要针对七层的http和https,当然,四层Nginx后来也支持了(1.9.0版本增加stream模块,用来实现四层协议)。
Nginx主要是通过反向代理的方式进行负载均衡的,所谓反向代理(Reverse Proxy),指的是以代理服务器来接收 Client 请求,然后将请求转发到内部服务器,并将内部服务器处理完成的结果返回给 Client ,对外,代理服务器就是真正的服务器,内部服务器外部不感知。
Nginx支持以下几种策略:
轮询·default
weight (权重)
ip_hash (可用于解决会话保持的问题)
fair·第三方 (按后端服务器的响应时间来分配请求,响应时间短的优先分配)
url_hash·第三方 (相同的url定位到相同的服务器)
*Nginx的优势
1. 跨平台,配置简单
2. 非阻塞,高并发(官方测试可以支撑5万并发数)
3. 事件驱动,通信机制采用 epoll 模型,支持更大的并发连接
4. 内存消耗小。(3万并发数下,10个Nginx进程只需要150M内存)
5. 内置的健康检查功能。 (一台后端服务器宕机了,不会影响前端访问)
6. 节省带宽。 (支持GZIP压缩,可以添加浏览器缓存的header)
7. 稳定性高。 (反向代理,宕机的概率很小)
*Nginx的缺点
1. 对后端服务器的健康检查,只支持通过端口检测,不支持url检测。
2. 不支持Session的直接保持。(通过ip_hash可解决)
【主流实现-Haproxy】
Haproxy提供高可用性,负载均衡以及基于TCP和HTTP的代理。
特别适用于那些负载特大的Web站点,这些站点通常需要会话保持或七层处理。
Haproxy支持四层和七层两种负载模式。
Haproxy有一些Nginx不具有的优点,比如支持Session的保持,Cookie的引导;同时支持通过获取指定的URL来检测后端服务器的状态。
Haproxy和LVS类似,本身就只是一款负载均衡软件;单纯从效率上来讲,比Nginx有更好的负载均衡速度,在并发处理上也优于Nginx。
Haproxy支持的负载均衡策略也比较多:Round-robin(轮循)、Weight-round-robin(带权轮循)、source(原地址保持)、RI(请求URL)、rdp-cookie(根据cookie)。
【三种负载均衡的比较】
比较 |
HAProxy |
Nginx |
LVS |
优点 |
支持session保持,Cookie引导。 可通过url检测后端服务器健康状态。 也可做MySQL、Email等负载均衡。 支持通过指定的URL对后端服务器健康检查。 |
http、https、Emai协议功能较好,处理相应请求快。 Web能力强,配置简单,支持缓存功能、适用动静分离,低内存消耗。 支持WebSocket协议。 支持强大的正则匹配规则 。 |
通过vrrp转发(仅分发)效率高,流量通过内核处理,没有流量产生。(理论) 相当稳定可靠。 |
缺点 |
一般不做Web服务器的Cache。 |
不支持session直接保持,但可通过ip_hash解决。 只能通过端口对后端服务器健康检查。 |
不支持正则,不能做动静分离,配置略复杂,需要IP略多。 没有后端主机健康状态检查。 |
支持算法 |
目标uri hash(uri) url参数 (url_params) 请求头信息调度(hdr(name)) cookie (rdp-cookie) |
最小响应时间 自定义hash内容(hash key [consistent]) url hash 最短时间和最少连接 |
最短期望延迟(Shortest Expected Delay) 不排队(Never Queue) 基于局部性的最少连接(LBLC) 带复制的基于局部性最少链接(LCLBR) |
官网 |
|||
虚拟主机 |
支持 |
支持 |
不支持 |
适用性 |
四层,七层(常用) |
四层,七层(常用) |
四层 |
量级 |
七层重量级,四层轻量级 |
七层重量级,四层轻量级 |
四层重量级 |
常用热备 |
Keepalived+其它 |
Keepalived+其它 |
Keepalived+其它 |
*补充区别
HAProxy对于后端服务器会一直做健康检测(就算请求没过来的时候也会做健康检查)
后端机器故障发生在请求还没到来的时候,haproxy会将这台故障机切掉,但如果后端机器故障发生在请求到达期间,那么前端访问会有异常。
也就是说HAProxy会把请求转到后端的这台故障机上,并经过多次探测后才会把这台机器切掉,并把请求发给其他正常的后端机,这势必会造成一小段时间内前端访问失败。
Nginx对于后端的服务器不会一直做健康检测
后端机器发生故障,在请求过来的时候,分发还是会正常进行分发,只是请求不到数据的时候,它会再转向好的后端机器进行请求,直到请求正常为止。
也就是说Nginx请求转到后端一台不成功的机器的话,还会再转向另外一台服务器,这对前端访问没有什么影响。
因此,如果有用HAProxy做为前端负载均衡的话 ,如果后端服务器要维护,在高并发的情况,肯定是会影响用户的。
但如果是Nginx做为前端负载均衡的话,只要并发撑得住,后端切掉几台不会影响到用户。
【Openstack LBaaS的现状】
Neutron中的loadbalance服务lbaas,可以将来自公网或内部网络的访问流量,分发到云资源中的云主机上,可以随时添加或者减少后端云主机的数量,而不影响业务。
lbaas在Grizzly版本集成到Neutron中。
现在社区最新的API版本为V2,在Kilo中发布,包含以下概念:
Lbaas V1与V2的区别如下:
功能 |
lbaas |
lbaasV2 |
最大连接数 |
Y |
Y |
TCP负载均衡 |
Y |
Y |
HTTP负载均衡 |
Y |
Y |
HTTPS负载均衡 |
Y |
Y |
TERMINATED_HTTPS负载均衡 |
X |
Y |
基于hostname的url转发 |
X |
Y |
基于path的url转发 |
X |
Y |
基于filename的url转发 |
X |
Y |
基于header的url转发 |
X |
Y |
基于cookie的url转发 |
X |
Y |
一个vip支持多种协议和端口 |
X |
Y |
【Octavia 介绍】
Octavia当前作为lbaasV2的一个driver存在,完全兼容lbaasV2的接口,最终的发展趋势会作为一个独立的项目代替lbaasV2。
架构图如下:
网络结构如下:
【参考】
octavia相关:https://docs.openstack.org/octavia/latest/
nginx相关:nginx.org
lvs相关:https://www.jianshu.com/p/16e9c84fdb3c
openstack octavia的实现与分析(一)openstack负载均衡的现状与发展以及lvs,Nginx,Haproxy三种负载均衡机制的基本架构和对比的更多相关文章
- octavia的实现与分析(一)·openstack负载均衡的现状与发展以及lvs,Nginx,Haproxy三种负载均衡机制的基本架构和对比
[负载均衡] 大量用户发起请求的情况下,服务器负载过高,导致部分请求无法被响应或者及时响应. 负载均衡根据一定的算法将请求分发到不同的后端,保证所有的请求都可以被正常的下发并返回. [主流实现-LVS ...
- Octavia 的实现与分析(OpenStack Rocky)
目录 文章目录 目录 Octavia 基本对象概念 基本使用流程 软件架构 服务进程清单 代码结构 loadbalancer 创建流程分析 network_tasks.AllocateVIP netw ...
- 3种LVS/Nginx/HAProxy负载均衡器的对比分析
现在网站发展的趋势对网络负载均衡的使用是随着网站规模的提升根据不同的阶段来使用不同的技术: 一种是通过硬件来进 行进行,常见的硬件有比较昂贵的NetScaler.F5.Radware和Array等商用 ...
- LVS/Nginx/HAProxy负载均衡器的对比分析
转自:http://www.blogjava.net/ivanwan/archive/2013/12/25/408014.html LVS的特点是: 抗负载能力强.是工作在网络4层之上仅作分发之用,没 ...
- openstack octavia的实现与分析(二)原理,架构与基本流程
[了解] 其实说白了,Octavia就是将用户的API请求经过逻辑处理,转换成Haproxy或者Nginx的配置参数,下发到amphora虚机中. Octavia的内部实现中,逻辑流程的处理主要使用T ...
- openstack之nova-api服务流程分析
nova-api公布api服务没实用到一个些框架,基本都是从头写的.在不了解它时,以为它很复杂,难以掌握.花了两三天的时间把它分析一遍后,发现它本身的结构比較简单,主要难点在于对它所使用的一些类库不了 ...
- openstack之虚拟机创建流程分析
这篇博文静静的呆在草稿箱大半年了.假设不是由于某些原因被问到,以及由于忽略它而导致的损失,否则我也不知道什么时候会将它完毕.感谢这段时间经历的挫折,让我知道不足.希望你能给我更大的决心! 本文试图具体 ...
- 理解 OpenStack 高可用(HA)(1):OpenStack 高可用和灾备方案 [OpenStack HA and DR]
本系列会分析OpenStack 的高可用性(HA)概念和解决方案: (1)OpenStack 高可用方案概述 (2)Neutron L3 Agent HA - VRRP (虚拟路由冗余协议) (3)N ...
- 零基础学习openstack【完整中级篇】及openstack资源汇总
1.你是如何学习openstack的?2.你对openstack的组件了解多少?3.你认为openstack该如何学习? 一直想写关于openstack的方面的内容,今天终于整理完成.算是完成一桩心事 ...
随机推荐
- 从.NET转GO了
前言 近几个月刚从.NET转到GO,入职了一个使用GO微服务的互联网公司.因为需要熟悉公司的微服务架构和适应新公司的节奏,所以最近没时间写博客,现在简单做个总结. 转GO的经历 自学GO 上一年的八月 ...
- VMware虚拟机下Centos8 设置静态IP地址
缘起 我们在平时学习Redis.Nginx等分布式微服务的组件的时候,无法避免的需要用到Linux操作系统,而Linux操作系统的主机来源差不多就三种情况: 真实物理机 阿里云等云服务器 利用虚拟机 ...
- 从面试角度分析ArrayList源码
注:本系列文章中用到的jdk版本均为java8 ArrayList类图如下: ArrayList的底层是由数组实现的,数组的特点是固定大小,而ArrayList实现了动态扩容. ArrayList部分 ...
- 详解Java中的IO输入输出流!
目录 本片要点 基本分类 发展史 文件字符流 输出的基本结构 流中的异常处理 异常处理新方式 读取的基本结构 运用输入与输出完成复制效果 文件字节流 缓冲流 字符缓冲流 装饰设计模式 转换流(适配器) ...
- 容器编排系统k8s之Service资源
前文我们了解了k8s上的DemonSet.Job和CronJob控制器的相关话题,回顾请参考:https://www.cnblogs.com/qiuhom-1874/p/14157306.html:今 ...
- 2020 .NET 开发者峰会顺利在苏州落幕,相关数据很喜人以及线上直播回看汇总
在2019年上海中国.NET开发者大会的基础上,2020年12月19-20日 继续以"开源.共享.创新" 为主题的第二届中国 .NET 开发者峰会(.NET Conf China ...
- 安装篇九:安装wordpress(5.4版本)
#1.下载wordpress程序 下载部署wordpress博客程序(https://cn.wordpress.org/ 英文官网:https://www.wordpress.org/ ) [root ...
- 浅析Python闭包
1.什么是闭包 在介绍闭包概念前,我们先来看一段简短的代码 def sum_calc(*args): def wrapper(): sum = 0 for n in args: sum += n; r ...
- 6.mysql存储过程
存储过程 1.命令 创建及调用 定义分隔符 DELIMITER $ 创建存储过程 delimiter $$ create procedure 名称() begin 语句 end$$ delimiter ...
- CentOS7 实战源码部署php服务与nginx 的整合
简介:实战演练php服务的搭建 PHP是一种脚本语言,常用于做动态网站的. 源码编译安装: 安装依赖组件: yum -y install gcc gcc-c++ bzip2 bzip2-devel b ...