[Linux系统] (6)LVS负载均衡
部分内容转自:https://blog.csdn.net/weixin_40470303/article/details/80541639
一、LVS简介
LVS(Linux Virtual Server)即Linux虚拟服务器,是由章文嵩博士主导的开源负载均衡项目,目前LVS已经被集成到Linux内核模块中。该项目在Linux内核中实现了基于IP的数据请求负载均衡调度方案,其体系结构如图1所示,终端互联网用户从外部访问公司的外部负载均衡服务器,终端用户的Web请求会发送给LVS调度器,调度器根据自己预设的算法决定将该请求发送给后端的某台Web服务器,比如,轮询算法可以将外部的请求平均分发给后端的所有服务器,终端用户访问LVS调度器虽然会被转发到后端真实的服务器,但如果真实服务器连接的是相同的存储,提供的服务也是相同的服务,最终用户不管是访问哪台真实服务器,得到的服务内容都是一样的,整个集群对用户而言都是透明的。最后根据LVS工作模式的不同,真实服务器会选择不同的方式将用户需要的数据发送到终端用户,LVS工作模式分为NAT模式、TUN模式、以及DR模式。
二、三种工作模式的解析
1、基于NAT的LVS模式负载均衡
NAT(Network Address Translation)即网络地址转换,其作用是通过数据报头的修改,使得位于企业内部的私有IP地址可以访问外网,以及外部用用户可以访问位于公司内部的私有IP主机。VS/NAT工作模式拓扑结构如图2所示,LVS负载调度器可以使用两块网卡配置不同的IP地址,eth0设置为私钥IP与内部网络通过交换设备相互连接,eth1设备为外网IP与外部网络联通。
第一步,用户通过互联网DNS服务器解析到公司负载均衡设备上面的外网地址,相对于真实服务器而言,LVS外网IP又称VIP(Virtual IP Address),用户通过访问VIP,即可连接后端的真实服务器(Real Server),而这一切对用户而言都是透明的,用户以为自己访问的就是真实服务器,但他并不知道自己访问的VIP仅仅是一个调度器,也不清楚后端的真实服务器到底在哪里、有多少真实服务器。
第二步,用户将请求发送至124.126.147.168,此时LVS将根据预设的算法选择后端的一台真实服务器(192.168.0.1~192.168.0.3),将数据请求包转发给真实服务器,并且在转发之前LVS会修改数据包中的目标地址以及目标端口,目标地址与目标端口将被修改为选出的真实服务器IP地址以及相应的端口。
第三步,真实的服务器将响应数据包返回给LVS调度器,调度器在得到响应的数据包后会将源地址和源端口修改为VIP及调度器相应的端口,修改完成后,由调度器将响应数据包发送回终端用户,另外,由于LVS调度器有一个连接Hash表,该表中会记录连接请求及转发信息,当同一个连接的下一个数据包发送给调度器时,从该Hash表中可以直接找到之前的连接记录,并根据记录信息选出相同的真实服务器及端口信息。
2、基于TUN的LVS负载均衡
在LVS(NAT)模式的集群环境中,由于所有的数据请求及响应的数据包都需要经过LVS调度器转发,如果后端服务器的数量大于10台,则调度器就会成为整个集群环境的瓶颈。我们知道,数据请求包往往远小于响应数据包的大小。因为响应数据包中包含有客户需要的具体数据,所以LVS(TUN)的思路就是将请求与响应数据分离,让调度器仅处理数据请求,而让真实服务器响应数据包直接返回给客户端。VS/TUN工作模式拓扑结构如图3所示。其中,IP隧道(IP tunning)是一种数据包封装技术,它可以将原始数据包封装并添加新的包头(内容包括新的源地址及端口、目标地址及端口),从而实现将一个目标为调度器的VIP地址的数据包封装,通过隧道转发给后端的真实服务器(Real Server),通过将客户端发往调度器的原始数据包封装,并在其基础上添加新的数据包头(修改目标地址为调度器选择出来的真实服务器的IP地址及对应端口),LVS(TUN)模式要求真实服务器可以直接与外部网络连接,真实服务器在收到请求数据包后直接给客户端主机响应数据。
3、基于DR的LVS负载均衡(常用模式)
在LVS(TUN)模式下,由于需要在LVS调度器与真实服务器之间创建隧道连接,这同样会增加服务器的负担。与LVS(TUN)类似,DR模式也叫直接路由模式,其体系结构如图4所示,该模式中LVS依然仅承担数据的入站请求以及根据算法选出合理的真实服务器,最终由后端真实服务器负责将响应数据包发送返回给客户端。与隧道模式不同的是,直接路由模式(DR模式)要求调度器与后端服务器必须在同一个局域网内,VIP地址需要在调度器与后端所有的服务器间共享,因为最终的真实服务器给客户端回应数据包时需要设置源IP为VIP地址,目标IP为客户端IP,这样客户端访问的是调度器的VIP地址,回应的源地址也依然是该VIP地址(真实服务器上的VIP),客户端是感觉不到后端服务器存在的。由于多台计算机都设置了同样一个VIP地址,所以在直接路由模式中要求调度器的VIP地址是对外可见的,客户端需要将请求数据包发送到调度器主机,而所有的真实服务器的VIP地址必须配置在Non-ARP的网络设备上,也就是该网络设备并不会向外广播自己的MAC及对应的IP地址,真实服务器的VIP对外界是不可见的,但真实服务器却可以接受目标地址VIP的网络请求,并在回应数据包时将源地址设置为该VIP地址。调度器根据算法在选出真实服务器后,在不修改数据报文的情况下,将数据帧的MAC地址修改为选出的真实服务器的MAC地址,通过交换机将该数据帧发给真实服务器。整个过程中,真实服务器的VIP不需要对外界可见。
三、LVS负载均衡调度算法
根据前面的介绍,我们了解了LVS的三种工作模式,但不管实际环境中采用的是哪种模式,调度算法进行调度的策略与算法都是LVS的核心技术,LVS在内核中主要实现了一下十种调度算法。
1.轮询调度
轮询调度(Round Robin 简称'RR')算法就是按依次循环的方式将请求调度到不同的服务器上,该算法最大的特点就是实现简单。轮询算法假设所有的服务器处理请求的能力都一样的,调度器会将所有的请求平均分配给每个真实服务器。
2.加权轮询调度
加权轮询(Weight Round Robin 简称'WRR')算法主要是对轮询算法的一种优化与补充,LVS会考虑每台服务器的性能,并给每台服务器添加一个权值,如果服务器A的权值为1,服务器B的权值为2,则调度器调度到服务器B的请求会是服务器A的两倍。权值越高的服务器,处理的请求越多。
3.最小连接调度
最小连接调度(Least Connections 简称'LC')算法是把新的连接请求分配到当前连接数最小的服务器。最小连接调度是一种动态的调度算法,它通过服务器当前活跃的连接数来估计服务器的情况。调度器需要记录各个服务器已建立连接的数目,当一个请求被调度到某台服务器,其连接数加1;当连接中断或者超时,其连接数减1。
(集群系统的真实服务器具有相近的系统性能,采用最小连接调度算法可以比较好地均衡负载。)
4.加权最小连接调度
加权最少连接(Weight Least Connections 简称'WLC')算法是最小连接调度的超集,各个服务器相应的权值表示其处理性能。服务器的缺省权值为1,系统管理员可以动态地设置服务器的权值。加权最小连接调度在调度新连接时尽可能使服务器的已建立连接数和其权值成比例。调度器可以自动问询真实服务器的负载情况,并动态地调整其权值。
5.基于局部的最少连接
基于局部的最少连接调度(Locality-Based Least Connections 简称'LBLC')算法是针对请求报文的目标IP地址的 负载均衡调度,目前主要用于Cache集群系统,因为在Cache集群客户请求报文的目标IP地址是变化的。这里假设任何后端服务器都可以处理任一请求,算法的设计目标是在服务器的负载基本平衡情况下,将相同目标IP地址的请求调度到同一台服务器,来提高各台服务器的访问局部性和Cache命中率,从而提升整个集群系统的处理能力。LBLC调度算法先根据请求的目标IP地址找出该目标IP地址最近使用的服务器,若该服务器是可用的且没有超载,将请求发送到该服务器;若服务器不存在,或者该服务器超载且有服务器处于一半的工作负载,则使用'最少连接'的原则选出一个可用的服务器,将请求发送到服务器。
6.带复制的基于局部性的最少连接
带复制的基于局部性的最少连接(Locality-Based Least Connections with Replication 简称'LBLCR')算法也是针对目标IP地址的负载均衡,目前主要用于Cache集群系统,它与LBLC算法不同之处是它要维护从一个目标IP地址到一组服务器的映射,而LBLC算法维护从一个目标IP地址到一台服务器的映射。按'最小连接'原则从该服务器组中选出一一台服务器,若服务器没有超载,将请求发送到该服务器;若服务器超载,则按'最小连接'原则从整个集群中选出一台服务器,将该服务器加入到这个服务器组中,将请求发送到该服务器。同时,当该服务器组有一段时间没有被修改,将最忙的服务器从服务器组中删除,以降低复制的程度。
7.目标地址散列调度
目标地址散列调度(Destination Hashing 简称'DH')算法先根据请求的目标IP地址,作为散列键(Hash Key)从静态分配的散列表找出对应的服务器,若该服务器是可用的且并未超载,将请求发送到该服务器,否则返回空。
8.源地址散列调度U
源地址散列调度(Source Hashing 简称'SH')算法先根据请求的源IP地址,作为散列键(Hash Key)从静态分配的散列表找出对应的服务器,若该服务器是可用的且并未超载,将请求发送到该服务器,否则返回空。它采用的散列函数与目标地址散列调度算法的相同,它的算法流程与目标地址散列调度算法的基本相似。
9.最短的期望的延迟
最短的期望的延迟调度(Shortest Expected Delay 简称'SED')算法基于WLC算法。举个例子吧,ABC三台服务器的权重分别为1、2、3 。那么如果使用WLC算法的话一个新请求进入时它可能会分给ABC中的任意一个。使用SED算法后会进行一个运算
A:(1+1)/1=2 B:(1+2)/2=3/2 C:(1+3)/3=4/3 就把请求交给得出运算结果最小的服务器。
10.最少队列调度
最少队列调度(Never Queue 简称'NQ')算法,无需队列。如果有realserver的连接数等于0就直接分配过去,不需要在进行SED运算。
四、LVS实验(DR模式)
1.系统准备
准备三台虚拟机位于同一局域网,网段为192.168.1.0。
三台虚拟机IP分别是:
LVS server:192.168.1.200 (DIP)
Real server 1:192.168.1.201 (RIP)
Real server 2:192.168.1.202 (RIP)
2.配置LVS server的网络
给LVS server配置VIP 192.168.1.10(暂时生效)
ifconfig eth0: 192.168.1.10/
[root@lvs-server ~]# ifconfig
eth0: flags=<UP,BROADCAST,RUNNING,MULTICAST> mtu
inet 192.168.1.200 netmask 255.255.255.0 broadcast 192.168.1.255
inet6 240e::c0:ddc0:20c:29ff:fea5: prefixlen scopeid 0x0<global>
inet6 fe80::20c:29ff:fea5: prefixlen scopeid 0x20<link>
ether :0c::a5:: txqueuelen (Ethernet)
RX packets bytes (163.9 KiB)
RX errors dropped overruns frame
TX packets bytes (115.4 KiB)
TX errors dropped overruns carrier collisions eth0:8: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500
inet 192.168.1.10 netmask 255.255.255.0 broadcast 192.168.1.255
ether 00:0c:29:a5:77:56 txqueuelen 1000 (Ethernet) lo: flags=<UP,LOOPBACK,RUNNING> mtu
inet 127.0.0.1 netmask 255.0.0.0
inet6 :: prefixlen scopeid 0x10<host>
loop txqueuelen (Local Loopback)
RX packets bytes (708.0 B)
RX errors dropped overruns frame
TX packets bytes (708.0 B)
TX errors dropped overruns carrier collisions
配置非自己的包的处理方式(不能用vi修改,暂时生效):
echo > /proc/sys/net/ipv4/ip_forward
3.配置每台Real server
修改arp配置,隐藏VIP(不能用vi修改,暂时生效):
# 只响应询问自己地址的请求,不回应位于lo的VIP
echo > /proc/sys/net/ipv4/conf/eth0/arp_ignore
# 只主动播报与本接口地址匹配的信息
echo > /proc/sys/net/ipv4/conf/eth0/arp_announce # 为所有网卡添加同样配置,比如后续添加新的网卡
echo > /proc/sys/net/ipv4/conf/all/arp_ignore
echo > /proc/sys/net/ipv4/conf/all/arp_announce
在real server的环回接口lo上配置VIP(暂时生效):
ifconfig lo: 192.168.1.10 netmask 255.255.255.255
注意:这里的VIP和LVS server的VIP是一致的。netmask是255.255.255.255,这是因为如果配置为255.255.255.0,在路由条目中会与192.168.1.0网段的路由条目冲突。用全1掩码,就将网段限制为192.168.1.10一个IP了。
[root@real-server- ~]# ifconfig
eth0: flags=<UP,BROADCAST,RUNNING,MULTICAST> mtu
inet 192.168.1.201 netmask 255.255.255.0 broadcast 192.168.1.255
inet6 240e::c0:ddc0:20c:29ff:fe0a:bb12 prefixlen scopeid 0x0<global>
inet6 fe80::20c:29ff:fe0a:bb12 prefixlen scopeid 0x20<link>
ether :0c::0a:bb: txqueuelen (Ethernet)
RX packets bytes (122.4 KiB)
RX errors dropped overruns frame
TX packets bytes (50.5 KiB)
TX errors dropped overruns carrier collisions lo: flags=<UP,LOOPBACK,RUNNING> mtu
inet 127.0.0.1 netmask 255.0.0.0
inet6 :: prefixlen scopeid 0x10<host>
loop txqueuelen (Local Loopback)
RX packets bytes (0.0 B)
RX errors dropped overruns frame
TX packets bytes (0.0 B)
TX errors dropped overruns carrier collisions lo:2: flags=73<UP,LOOPBACK,RUNNING> mtu 65536
inet 192.168.1.10 netmask 255.255.255.255
loop txqueuelen 1000 (Local Loopback)
为每台Real server安装httpd服务器用于测试:
yum install httpd -y
在httpd的发布目录下写一个简单的页面index.html:
cd /var/www/html
vi index.html from real-server-
启动httpd服务:
systemctl start httpd
使用浏览器验证一下(这时是分别访问的RIP):
使用VIP访问一下(此时肯定不成功,因为还未配置LVS server):
4.在LVS server上配置LVS服务
安装ipvsadm:
yum install ipvsadm -y
因为LVS的代码被纳入了Linux内核,只提供系统调用。我们不能直接操作内核,所以需要一个在用户态的软件来操作LVS。
使用ipvsadm的命令来配置业务:
# 配置VIP
ipvsadm -A -t 192.168.1.10: -s rr
# 配置后面的两台负载服务器
ipvsadm -a -t 192.168.1.10: -r 192.168.1.201 -g
ipvsadm -a -t 192.168.1.10: -r 192.168.1.202 -g
由于我们的httpd监听的是80端口,所以LVS服务也是监听80端口,IP为VIP。
查询ipvsadm的帮助:
# 添加一个虚拟服务
--add-service -A add virtual service with options
# 添加一个负载服务器
--add-server -a add real server with options
# 虚拟IP地址和监听端口
--tcp-service -t service-address service-address is host[:port]
# 转发策略,rr为轮询
--scheduler -s scheduler one of rr|wrr|lc|wlc|lblc|lblcr|dh|sh|sed|nq,
the default scheduler is wlc.
# real server的IP端口
--real-server -r server-address server-address is host (and port)
配置好后,查看当前配置结果:
[root@lvs-server yum.repos.d]# ipvsadm -ln IP Virtual Server version 1.2. (size=)
Prot LocalAddress:Port Scheduler Flags
-> RemoteAddress:Port Forward Weight ActiveConn InActConn
TCP 192.168.1.10: rr
-> 192.168.1.201: Route
-> 192.168.1.202: Route
可以看到有一个虚拟服务,VIP为192.168.1.10,监听端口为80,转发策略为rr轮询。Real server有两台,IP分别是192.168.1.201,192.168.1.202,服务端口也是80。
此时,我们再使用浏览器访问VIP:
我们可以看到访问成功,并且LVS将该次请求分发给了real-server-2,也就是192.168.1.202。
为了验证转发效果,我们使用linux的curl来模拟:
[root@centos-clone1 ~]# curl 192.168.1.10:
from real-server-
[root@centos-clone1 ~]# curl 192.168.1.10:
from real-server-
[root@centos-clone1 ~]# curl 192.168.1.10:
from real-server-
[root@centos-clone1 ~]# curl 192.168.1.10:
from real-server-
[root@centos-clone1 ~]# curl 192.168.1.10:
from real-server-
[root@centos-clone1 ~]# curl 192.168.1.10:
from real-server-
[root@centos-clone1 ~]# curl 192.168.1.10:
from real-server-
[root@centos-clone1 ~]# curl 192.168.1.10:
from real-server-
[root@centos-clone1 ~]# curl 192.168.1.10:
from real-server-
从模拟结果可以看出,每次请求确实是在real-server-1和real-server-2之间轮询。
我们马上使用命令查看一下TCP链接情况:
[root@lvs-server yum.repos.d]# ipvsadm -lnc
IPVS connection entries
pro expire state source virtual destination
TCP : FIN_WAIT 192.168.1.121: 192.168.1.10: 192.168.1.202:
TCP : FIN_WAIT 192.168.1.121: 192.168.1.10: 192.168.1.202:
TCP : FIN_WAIT 192.168.1.121: 192.168.1.10: 192.168.1.201:
TCP : FIN_WAIT 192.168.1.121: 192.168.1.10: 192.168.1.202:
TCP : FIN_WAIT 192.168.1.121: 192.168.1.10: 192.168.1.201:
TCP : FIN_WAIT 192.168.1.121: 192.168.1.10: 192.168.1.202:
TCP : FIN_WAIT 192.168.1.121: 192.168.1.10: 192.168.1.201:
TCP : FIN_WAIT 192.168.1.121: 192.168.1.10: 192.168.1.202:
TCP : FIN_WAIT 192.168.1.121: 192.168.1.10: 192.168.1.201:
TCP : FIN_WAIT 192.168.1.121: 192.168.1.10: 192.168.1.202:
TCP : FIN_WAIT 192.168.1.121: 192.168.1.10: 192.168.1.201:
TCP : FIN_WAIT 192.168.1.121: 192.168.1.10: 192.168.1.201:
TCP : FIN_WAIT 192.168.1.121: 192.168.1.10: 192.168.1.202:
可以看到刚才建立的TCP链接都已经断开,但可以看到都来自于192.168.1.121,端口为curl的随机端口,目的是real-server-1和real-server-2。
我们再来看看lvs-server和两台read-server的TCP链接情况(重新请求几次):
[root@lvs-server yum.repos.d]# netstat -natp
Active Internet connections (servers and established)
Proto Recv-Q Send-Q Local Address Foreign Address State PID/Program name
tcp 127.0.0.1: 0.0.0.0:* LISTEN /master
tcp 0.0.0.0: 0.0.0.0:* LISTEN /sshd
tcp 192.168.1.200: 192.168.1.8: ESTABLISHED /sshd: root@pts
tcp6 ::: :::* LISTEN /master
tcp6 ::: :::* LISTEN /sshd
我们发现,LVS-server上根本没有建立与192.168.1.121客户端之间的TCP链接,说明LVS的一个重要特性:只做转发,而不与客户端建立4层链接。
五、存在的问题
1.问题
1)LVS server发生故障时,导致所有用户无法访问业务,因为所有请求都无法到达real server。
2)Real server发生故障时,请求同样会分配到宕机的Real server,导致部分用户无法访问业务。
2.解决方案
1)利用HA(高可用)方案,解决LVS server的单点故障问题,例如使用多台LVS服务器构成主备模式。
2)动态的检测Real server的服务器状态,当某台宕机时,动态的从LVS Server的Real server列表中剔除。当发现服务恢复时,自动将其加入列表。
我们可以利用keepalived方案来解决以上问题,详情参见 《Linux——(7)keepalived》
[Linux系统] (6)LVS负载均衡的更多相关文章
- Linux中keepalived+LVS负载均衡的搭建测试
1.1 LVS简介 LVS(Linux Virtual Server),也就是Linux虚拟服务器, 是一个自由软件项目.使用LVS技术要达到的目标是:通过LVS提供的负载均衡技术和Lin ...
- 高可用与负载均衡(1)之linux系统的数据链路层负载均衡
preface 在蓝厂就职到时候,每台缓存服务器都能够跑到2G的流量,这么大的流量,有人会问,服务器是不是安装的万兆网卡,no no no,仅仅是3张千兆网卡绑定在一块.万兆网卡的服务器少见,大多数都 ...
- 高性能Linux服务器 第11章 构建高可用的LVS负载均衡集群
高性能Linux服务器 第11章 构建高可用的LVS负载均衡集群 libnet软件包<-依赖-heartbeat(包含ldirectord插件(需要perl-MailTools的rpm包)) l ...
- linux运维、架构之路-LVS负载均衡
一.LVS介绍 1.介绍 LVS是Linux Virtual Server的简写,是linux虚拟的服务器集群系统,可以在unix/linux平台下实现负载均衡集群功能,由章文嵩博 ...
- 大数据高并发系统架构实战方案(LVS负载均衡、Nginx、共享存储、海量数据、队列缓存)
课程简介: 随着互联网的发展,高并发.大数据量的网站要求越来越高.而这些高要求都是基础的技术和细节组合而成的.本课程就从实际案例出发给大家原景重现高并发架构常用技术点及详细演练. 通过该课程的学习,普 ...
- lvs负载均衡的搭建
lvs负载均衡的搭建 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 在部署环境前,我们需要了解一下一些协议 一.什么是arp 地址解析协议,即ARP(Addr ...
- (转)详解LVS负载均衡之三种工作模型原理和10种调度算法
原创作品,允许转载,转载时请务必以超链接形式标明文章 原始出处 .作者信息和本声明.否则将追究法律责任.http://linuxnx.blog.51cto.com/6676498/1195379 LV ...
- LVS负载均衡的三种模式和八种算法总结
三种LVS负载均衡模式 调度器的实现技术中,IP负载均衡技术是效率最高的,IP虚拟服务器软件(IPVS)是在linux内核中实现的。 LVS负载均衡模式---1.NAT模式 NAT用法本来是因为网络I ...
- LVS负载均衡中arp_ignore和arp_annonuce参数配置的含义
先简单的介绍下关于LVS负载均衡 LVS(Linux Virtual Server)Linux服务器集群系统 针对高可伸缩,高可用服务的需求,给予IP层和内容请求分发的负载均衡调度解决方法,并在Li ...
随机推荐
- 引用Nuget包Microsoft.EntityFrameworkCore.Tools.DotNet报错
错误如下 解决方法 使用VS2017或更高版本在改项目右键,选择“编辑xxx.csproj”,并添加如下一句话,就可以成功引用改Nuget包 <PackageReference Include= ...
- mysql一个SQL案例
需求 : 测试数据 ),start1 int,end1 int); ,); ,); ,); ,); ,); ,); 解决: 解决2: 解决代码 核心思想,把符合逻辑条件的行,构造相同分组 select ...
- windows vue环境搭建
windows环境搭建Vue开发环境 一.安装node.js(https://nodejs.org/en/) 下载完毕后,可以安装node,建议不要安装在系统盘(如C:). 二.设置nodejs pr ...
- 入职一个月快速熟悉大型Vue项目经验感想
来到和睦的公司家庭已经一个月出头了,从技术层面来说,公司项目PC端是我目前来说接触的最大最复杂的项目了,德老师也说这个不断开发更新迭代的项目的代码量相对于全国的web来说是蛮多的,对于快速熟悉这样的大 ...
- Django基础之jQuery操作
Django基础之jQuery操作 jquery之cookie操作 定义:让网站服务器把少量数据储存到客户端的硬盘或内存,从客户端的硬盘读取数据的一种技术: 下载与引入:jquery.cookie.j ...
- leecode刷题(23)-- 合并两个有序链表
leecode刷题(23)-- 合并两个有序链表 合并两个有序链表 将两个有序链表合并为一个新的有序链表并返回.新链表是通过拼接给定的两个链表的所有节点组成的. 示例: 输入:1->2-> ...
- 使用python进行pdf文件分割
Python代码 import os from pyPdf import PdfFileWriter, PdfFileReader def split(pdf_file, delta, output_ ...
- Altium Designer16 如何分别导出TOP层和BOTTOM层
版权声明:本文为博主原创文章,遵循CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明. 作者:struct_mooc 博客地址:https://www.cnblogs.com/stru ...
- java 枚举enum的使用(与在switch中的使用)
实际开发中,很多人可能很少用枚举类型.更多的可能使用常量的方式代替.但枚举比起常量来说,含义更清晰,更容易理解,结构上也更加紧密.看其他人的博文都很详细,长篇大论的,这里理论的东西不说了,一起看看在实 ...
- 多线程编程-- part 8 CyclicBarrier
CyclicBarrier简介 cuclicBarrier允许一组线程互相等待,直到到达某个公共屏障点(common barrier point).因为该barrier在释放等待线程后可以重用,所以称 ...