Linux集群服务 LVS
linux虚拟服务器(LVS)项目在linux操作系统上提供了最常见的负载均衡软件。
集群定义:
集群(cluster)技术是一种较新的技术,通过集群技术,可以在付出较低成本的情况下获得在性能、可靠性、灵活性方面的相对较高的收益,其任务调度则是集群系统中
的核心技术。本文就集群系统的定义、发展趋势、任务调度等问题进行了简要论述。集群是一组相互独立的、通过高速网络互联的计算机,它们构成了一个组,并以单一系统的模式加以管理。一个客户与集群相互作用时,集群像是一个独立的服务器。集群配置是用于提高可用性和可缩放性。
集群系统的主要优点:(高可扩展性、高可用性、高性能、高性价比)
目前运行在LINUX最主流的三种集群:
负载集群之一:LB(Load Balancing)
负载均衡集群运行时,一般通过一个或者多个前端负载均衡器(Director Server),将用户发来的请求资源信息,通过一种调度算法发送至到后端的一组应用服务器(Real Server)上,从而达到整个系统的高性能和高可用性。这样的计算机集群有时也被称为服务器群(Server Farm)
一般高可用性集群和负载均衡集群会使用类似的技术,或同时具有高可用性与负载均衡的特点。
负载集群之二:HA(High-Availability)
一般是指当集群中有某个节点失效的情况下,其上的任务会自动转移到其他正常的节点上。并且还可以将集群中的某节点进行离线维护再上线,该过程并不影响
整个集群的运行。
高可用集群:为了保证服务一直在线的高可用能力的集群
衡量标准:可用性=在线时间/(在线时间+故障处理时间)
负载集群之三:HP
高性能计算集群采用将计算任务分配到集群的不同计算节点从而提高计算能力,因而主要应用在科学计算领域。比较流行的HPC采用Linux操作系统和其它一些免费软
件来完成并行运算。这一集群配置通常被称为Beowulf集群。这类集群通常运行特定的程序以发挥HPC cluster的并行能力。这类程序一般应用特定的运行库, 比如专为科学计算设计的MPI库。
HPC集群特别适合于在计算中各计算节点之间发生大量数据通讯的计算作业,比如一个节点的中间结果或影响到其它节点计算结果的情况。
高性能处理集群:
利用的是分布式存储:分布式文件系统,分布式文件系统把一个大任务切割为小任务、分别进行处理
LVS系统结构:
负载均衡器(Load Balancer)、服务器群组(Server Aarry)、共享存储(Shared Storage)
负载均衡层:
整个集群服务最前端设备,它有一个或多个调度器(Director Server)组成,LVS软件运行在调度服务器上。
调度服务器的功能:
将用户的请求,根据调度算法进行IP分流,将数据包发送到后端应用服务器上(Real Server),如果调度服务器安装了
监控模块Ldirectord,那么调度服务器会将出现故障的应用服务器标记为不可用,知道此应用服务器恢复正常。服务器群组层:
这是由一个或者多个应用程序服务器(Real Server)组成,并且每个应用服务器提供相同的服务,调度服务器会将用户的请求定向到具体的应用服务器上,然后由后端的应用服务器响应客户端。
共享存储层:
功能只要是保证服务器群组中的应用服务器提供数据的一致性。
共享存储的实现方式:
磁盘阵列、集群文件系统(OCFS2)
LVS是linux系统上的一种机制,类似于iptables,其相关属性也是通过(ipvsadm)与iptables命令类似的方式定义的,
LVS是工作于linux系统内核空间,通过内核来提供工作,其工作空间在iptables的INPUT链上,当客户端请求到达INPUT链上以后,通过LVS规则的验证,如果是内��请求,发送至用户空间,如果发现是集群,将此请求发送至POSTROUTING链,并交给后端应用程序服务器来响应用户的请求。
注意:上面所提到LVS其实是工作在iptables的INPUT和postrouting链上的,所以在此系统上iptables和LVS不能同时存在。
LVS的组成:
ipvsadm:用于管理集群服务的命令行工具,工作于Linux系统中的用户空间
ipvs:为lvs提供服务的内核模块,工作于内核空间 (相对于是框架,通过ipvsadm添加规则,来实现ipvs功能)
注:在linux内核2.4.23之前的内核中模块默认是不存在的,需要自己手动打补丁,然后把此模块编译进内核才可以使用此功能
LVS类型:
LVS-NAT模式、LVS-DR模式、LVS-TUN模式
NAT:(Network address translation)
原理:把用户的请求发来的IP包的IP报头目的地址,通过LVS服务器转换至后端提供服务的Real Server的地址并将用户的请求报文发送至应用服务器。而应用服务器打开报文并响应用户请求发送并经过LVS服务器,LVS服务器将源地址修改为LVS服务器接口上的VIP地址。
NAT模式特点:
1
2
3
4
5
6
7
8
9
|
用户发来的请求和响应,都必须经过LVS服务器。 集群节点跟Director必须在同一个IP网络中; RIP通常是私有地址,仅用于各集群节点间的通信; Director位于Client和Real Server之间,并负责处理进出的所有通信; Realserver必须将网关指向DIP地址; 支持端口映射; Realserver可以使用任意OS; LVS服务器必须有两块网卡 较大规模应该场景中,Director易成为系统瓶颈; |
DR:(Direct routing)
DR模式工作在数据链路层,其原理,LVS服务器和应用服务器使用同一个IP地址对外服务,但只有LVS服务器对ARP请求进行响应,所有应用服务器对本身这个IP地址的ARP请求保持静默。网关会把所有的ARP请求定向至LVS服务器,而LVS服务器收到用户请求数据报文,根据调度算法进行IP分流,然后相应的MAC地址的修改,发送至后端对应的应用服务器。
注:由于LVS服务器对二层数据包进行修改,所以LVS服务器和应用服务器必须在同一个广播域。
DR模式特点:
1
2
3
4
5
|
集群节点跟director必须在同一个物理网络中; RIP可以使用公网地址,实现便捷的远程管理和监控; Director仅负责处理入站请求,响应报文则由Real Server直接发往客户端; Real Server不能将网关指向DIP; 不支持端口映射; |
注:在DR模式中,LVS服务器只负责接收用户请求,根据调度算法及IP分流,直接路由转发,其响应报文交给Real Server自行处理。
DR模式是三种模式当中性能最好的,唯一的缺陷是LVS服务器和后端的应用服务器必须在同一个广播域中,因此不能实现集群的跨网端应用。
TUN (IP Tunnel模式)
TUN模式,LVS将TCP/IP请求进行重新封装并转发给目标应用服务器,有目标应用程序服务器对用户请求做出相应。LVS Router和Real Server通过Tp Tunnel通过隧道技术
进行转发,因此两者可以存在不同的网络当中。
注:由于应用服务器需要对LVS发送的报文进行还原,也就是说应用服务器也要支持Ip Tunnel协议。(Network options)
TUN模式特点:
1
2
3
4
5
6
|
集群节点可以跨越Internet; RIP必须是公网地址; Director仅负责处理入站请求,响应报文则由Real Server直接发往客户端; Real Server网关不能指向director; 只有支持隧道功能的OS才能用于Real Server; 不支持端口映射; |
LVS负载均衡八种调度算法:
rr-->wrr-->lc-->wlc-->lblc-->lblcr-->dh-->sh
轮叫(Round Robin):
该算法将用户请求有次序地分发到后端的应用服务器,均等看待所有Real Server,而并不计算具体服务器上的链接和负载。
加权轮叫(Weighted Round Robin):
该调度算法根据各个应用服务器的不同负载能力,给服务器设置不同的权值,处理能力强的应用服务器的权值设置大点,来响应更多的用户请求。
最少连接(Least Connections):
该算法将用户发送的请求分配到连接做少的应用服务器上。
加权最少连接(Weighted Least Connections):
该算法根据应用服务器的不同负载能力,设置不同大小不同的权值,权值较大并且连接请求数少的应用服务器则优先分配用户请求信息。
基于局部性最少连接:(Locality-Based Least Connections):
该算法针对目标IP地址的负载均衡算法,主要用于缓存集群系统。此算法会根据用户请求的目标IP地址找出与目标地址最近的应用服务器,如果服务器没有超载,则请求被分发到该应用服务器,如果服务器不可用或者负载较大,则使用最少连接算法,选择目标应用服务器
带复制的基于局部性最少连接(Locality-Based Least Connections wiht Replication)
该算法也是针对目标IP地址的负载均衡算法,主要用于缓存集群系统。域LBLC区别在于,前者维护一个IP地址到一组服务器的映射。而后者则是维护一个IP地址到一台应用服务器的映射。
目标地址散列(Destination Hashing)
该算法将用户请求的目标地址作为散列键,并尝试从静态分配的散列表中找出对应的应用服务器。如果目标应用服务器没有超载,那么将用户的请求信息分发至该应用服务里,否则返回空。
源地址散列(Source Hashing)
该算法将请求的源地址作为散列键,并尝试从静态分配的散列表中找出对应的应用服务器。如果目标应用服务器可用并且没有超载,那么将用户请求的信息分发至此应用服务器,否则返回空。
LVS IP Address Name Conventions:(LVS Ip-address 命名规范)
1
2
3
4
5
|
Director's IP (DIP) address :中间层,根据不同模式,来接收并响应用户的请求。 Virtual IP (VIP) address:向外提供服务的地址。 Real IP (RIP) address :Real Server IP:后端提供应用服务的主机地址。 Director's IP (DIP) address :和内部的IP通信所使用的地址:设置在Director Server上 Client computer's IP (CIP) address:客户端地址 |
ipvsadm命令详细介绍:
pvsadm: 管理集群服务的命令行工具,而ipvs系统内核中的一个模块
ipvsadm命令的基本使用:
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
|
-A:在内核的虚拟服务器列表中添加一条VIP记录 -E:修改内核虚拟服务器列表中的一条VIP记录 -D:删除内核虚拟服务器列表中的一条VIP记录 -C:清空内核虚拟服务器列表中的所有VIP记录 -S:保存虚拟服务器规则 -R:恢复虚拟服务器策略规则 -a:在内核虚拟服务器列表中添加一个应用服务器的地址。 -e:修改一个虚拟服务器列表中的一条应用服务器地址记录 -d:删除一个虚拟服务器列表中的一条应用服务器地址记录 -L/-l: 查看内核虚拟服务器列表 -Z:将内核中的虚拟服务器计数清为 0 -t service-address:指定虚拟服务器使用TCP服务 -u service-address:指定虚拟服务器使用UDP服务 -s scheduler:指定调度算法: -p timeout:在应用服务器上的持续服务时间,单位为秒 -r service-address:指定应用服务器的地址 -g:指定LVS工作模式为直接路由(DR-defalut) -I:指定LVS工作模式为隧道模式(Ip Tunnel) -m:指定LVS工作模式为地址转换模式(NAT) -w:设定应用服务器的权值 |
常用的负载均衡开源软件有: nginx、lvs、keepalived
商业的硬件负载设备: F5、Netscale
1、 LB、LVS介绍
LB集群是load balance 集群的简写,翻译成中文就是负载均衡集群;
LVS是一个实现负载均衡集群的开源软件项目;
LVS架构从逻辑上可分为调度层(Director)、server集群层(Real server)和共享存储层;
LVS可分为三种工作模式:
NAT(调度器将请求的目标ip即vip地址改为Real server的ip, 返回的数据包也经过调度器,调度器再把源地址修改为vip)
TUN(调度器将请求来的数据包封装加密通过ip隧道转发到后端的real server上,而real server会直接把数据返回给客户端,而不再经过调度器)
DR(调度器将请求来的数据包的目标mac地址改为real server的mac地址,返回的时候也不经过调度器,直接返回给客户端)
spacer.gif
LVS的调度算法:轮叫调度(Round Robin)(简称rr) ,加权轮叫(Weighted Round Robin)(简称wrr),最少链接(least connection)(LC),加权最少链接(Weighted Least Connections)(WLC) 等等;
2、LVS/NAT 配置
准备工作:
需要准备三台机器干净的CentOS6.6系统,Director机器需要安装两块网卡;
三台服务器一台作为director, 两台作为real server
Director 有一个外网ip:192.168.22.11 和一个内网ip:192.168.11.11
两台Real Server 只有内网ip为:192.168.11.100 和 192.168.11.101,并且需要设置内网网关为director的内网ip:192.168.11.11
DEVICE=eth1
TYPE=Ethernet
ONBOOT=yes
BOOTPROTO=static
IPADDR=192.168.11.100
GATEWAY=192.168.11.11更改完网关后需要重启网卡,先down后up,在一条命令实现;如果ifdown之后,ssh会中断;
# ifdown eth1 && ifup eth1
Director上安装ipvsadm:#yum install -y ipvsadm
两台real server安装nginx,需要先安装epel扩展源。
yum install -y epel-release
yum install -y nginx
安装完成后启动nginx:/etc/init.d/nginx start
更改三台服务器的hostname为 dr、rs1、rs2
Direcotr 上 vi /usr/local/sbin/lvs_nat.sh //增加如下内容:
#! /bin/bash
echo 1 > /proc/sys/net/ipv4/ip_forward
echo 0 > /proc/sys/net/ipv4/conf/all/send_redirects
echo 0 > /proc/sys/net/ipv4/conf/default/send_redirects
echo 0 > /proc/sys/net/ipv4/conf/eth0/send_redirects
echo 0 > /proc/sys/net/ipv4/conf/eth1/send_redirects
iptables -t nat -F
iptables -t nat -X
iptables -t nat -A POSTROUTING -s 192.168.11.0/24 -j MASQUERADE
IPVSADM='/sbin/ipvsadm'
$IPVSADM -C
$IPVSADM -A -t 192.168.22.11:80 -s wlc
$IPVSADM -a -t 192.168.22.11:80 -r 192.168.11.100:80 -m -w 2
$IPVSADM -a -t 192.168.22.11:80 -r 192.168.11.101:80 -m -w 1直接运行这个脚本就可以完成lvs/nat的配置了:
/bin/bash /usr/local/sbin/lvs_nat.sh
dr查看nat的iptables
[root@dr ~]# iptables -t nat -nvL
Chain POSTROUTING (policy ACCEPT 1 packets, 124 bytes)
pkts bytes target prot opt in out source destination
0 0 MASQUERADE all -- * * 192.168.11.0/24 0.0.0.0/0
ipvsadm -ln 查看ipvsadm的规则
浏览器打开192.168.11.100、192.168.11.101显示nginx的欢迎页面
在rs1、rs2上面修改html文件,用来区分;
[root@rs1 ~]# cat /usr/share/nginx/html/index.html
rs1rs1rs1
[root@rs2 ~]# cat /usr/share/nginx/html/index.html
rs2rs2rs2通过浏览器测试两台机器上的内容
浏览器打开 192.168.22.11,会显示rs1或rs2的html内容;来回切换说明试验OK;
更改轮询规则为wlc,权重为2,进行测试
用另一台linux机器curl测试,出现2次1,1次2,来回切换说明OK;
[root@localhost ~]# curl 192.168.22.11
rs1rs1rs1
[root@localhost ~]# curl 192.168.22.11
rs1rs1rs1
[root@localhost ~]# curl 192.168.22.11
rs2rs2rs2在dr机器上ipvsadm -ln可以查看,权重比,保持的链接比大概一样;
-> RemoteAddress:Port Forward Weight ActiveConn InActConn
TCP 192.168.22.11:80 wlc
-> 192.168.11.100:80 Masq 2 0 26
-> 192.168.11.101:80 Masq 1 0 13
3、LVS/DR 配置
DR模式中,director只负责分发,只有进入的流量,吞吐量会非常大;real server直接给用户提供数据,安全性会降低;
DR中的机器都需要配置公网ip,虚拟的ip每台机器都需要配置,用户请求的时候请求虚拟ip,返回的时候为轮询rs提供;
三台机器,每台机器只需要配置1个ip,vip是用脚本执行后会出现的,不用手动设置;
director(eth1:192.168.11.11 vip eth1:0 192.168.11.110)
real server1(eth1:192.168.11.100 vip lo:0: 192.168.11.110)
real server1(eth1:192.168.11.101 vip lo:0: 192.168.11.110)
Director 上 vim /usr/local/sbin/lvs_dr.sh //增加下面的内容
#! /bin/bash
echo 1 > /proc/sys/net/ipv4/ip_forward
ipv=/sbin/ipvsadm
vip=192.168.11.110
rs1=192.168.11.100
rs2=192.168.11.101
ifconfig eth1:0 $vip broadcast $vip netmask 255.255.255.255 up
route add -host $vip dev eth1:0
$ipv -C
$ipv -A -t $vip:80 -s rr
$ipv -a -t $vip:80 -r $rs1:80 -g -w 1
$ipv -a -t $vip:80 -r $rs2:80 -g -w 1
两台rs上:vim /usr/local/sbin/lvs_dr_rs.sh
#! /bin/bash
vip=192.168.11.110
ifconfig lo:0 $vip broadcast $vip netmask 255.255.255.255 up
route add -host $vip lo:0
echo "1" >/proc/sys/net/ipv4/conf/lo/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/lo/arp_announce
echo "1" >/proc/sys/net/ipv4/conf/all/arp_ignore
echo "2" >/proc/sys/net/ipv4/conf/all/arp_announce
然后director上执行: bash /usr/local/sbin/lvs_dr.sh
两台rs上执行: bash /usr/local/sbin/lvs_dr_rs.sh
执行完成后ifconfig可以显示虚拟ip地址;dr显示eth1:0,rs1、rs2显示lo:0;
eth1:0 Link encap:Ethernet HWaddr 00:0C:29:70:4E:58
inet addr:192.168.11.110 Bcast:192.168.11.110 Mask:255.255.255.255
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
Interrupt:18 Base address:0x2080
lo:0 Link encap:Local Loopback
inet addr:192.168.11.110 Mask:255.255.255.255
UP LOOPBACK RUNNING MTU:65536 Metric:1ipvsadm -ln 列出规则
[root@dr ~]# ipvsadm -ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
-> RemoteAddress:Port Forward Weight ActiveConn InActConn
TCP 192.168.11.110:80 rr
-> 192.168.11.100:80 Route 1 0 3
-> 192.168.11.101:80 Route 1 0 3单独启动一台linux机器进行测试,浏览器测试有缓存不明显;
curl 192.168.11.110 进行测试,各出现1次说明rr轮询规则OK;
[root@localhost ~]# curl 192.168.11.110
rs1rs1rs1
[root@localhost ~]# curl 192.168.11.110
rs2rs2rs2
[root@localhost ~]# curl 192.168.11.110
rs1rs1rs1
[root@localhost ~]# curl 192.168.11.110
rs2rs2rs2更改轮询算法为wrr,权重为2;然后执行文件,报错提示文件已存在;原因是/usr/local/sbin/lvs_dr.sh脚本文件里面已经up了eth1:0,所以需要在脚本里面增加:ifconfig eth1:0 down,之后就不会报错;
$ipv -A -t $vip:80 -s wrr
$ipv -a -t $vip:80 -r $rs1:80 -g -w 2
$ipv -a -t $vip:80 -r $rs2:80 -g -w 1[root@dr ~]# bash /usr/local/sbin/lvs_dr.sh
SIOCADDRT: 文件已存在其中一台rs如果挂了之后,还是会轮询访问,所以会出现一会能打开一会打不开;
模拟,rs2停止nginx:/etc/init.d/nginx stop
使用curl测试,请求还是会发送到rs2上面,但是已经提示不能连接到主机;
[root@localhost ~]# curl 192.168.11.110
rs1rs1rs1
[root@localhost ~]# curl 192.168.11.110
rs1rs1rs1
[root@localhost ~]# curl 192.168.11.110
curl: (7) couldn't connect to hostlvs本身不会剔除已经死掉的real server,所以需要结合keeplived;
LVS/DR + Keepalived搭建负载均衡集群 http://www.linuxidc.com/Linux/2015-06/118647.htm
LVS+Keepalived实现四层负载及高可用 http://www.linuxidc.com/Linux/2015-02/112695.htm
LVS+Keepalived高可用负载均衡集群架构实验 http://www.linuxidc.com/Linux/2015-01/112560.htm
Heartbeat+LVS构建高可用负载均衡集群 http://www.linuxidc.com/Linux/2014-09/106964.htm
搭建LVS负载均衡测试环境 http://www.linuxidc.com/Linux/2014-09/106636.htm
一个针对LVS的压力测试报告 http://www.linuxidc.com/Linux/2015-03/114422.htm
Linux集群服务 LVS的更多相关文章
- 基于VMware的虚拟Linux集群搭建-lvs+keepalived
基于VMware的虚拟Linux集群搭建-lvs+keepalived 本文通过keepalived实现lvsserver的的双机热备和真实server之间的负载均衡.这方面的blog挺多,可是每一个 ...
- 大数据项目之_15_帮助文档_NTP 配置时间服务器+Linux 集群服务群起脚本+CentOS6.8 升级到 python 到 2.7
一.NTP 配置时间服务器1.1.检查当前系统时区1.2.同步时间1.3.检查软件包1.4.修改 ntp 配置文件1.5.重启 ntp 服务1.6.设置定时同步任务二.Linux 集群服务群起脚本2. ...
- linux 集群及lvs
集群及LVS 集群: 一组通过高速网络互联的计算机组,并以单一系统的模式加以管理 价格很多服务器集中起来,提供同一种服务,在客户端看起来就像只有一个服务器 可以在付出较低成本的情况下获得在性能,可靠性 ...
- 聊聊、Zookeeper Linux 集群服务
今天是平安夜,先祝大家平安夜快乐.这篇文章我们来谈谈 Zookeeper Linux 集群. 为什么要集群呢?因为一台服务不够.集群是为了系统扩容,系统稳定.一台服务挂了,没关系,我还有其他的服务.集 ...
- Linux集群及LVS简介
一.什么是集群 通过一组松散集成的计算机软件和/或硬件连接起来高度紧密地协作完成计算工作.在某种意义上,他们可以被看作是一台计算机.集群系统中的单个计算机通常称为节点,通常通过局域网连接,但也有其它的 ...
- Linux centosVMware Linux集群架构LVS DR模式搭建、keepalived + LVS
一.LVS DR模式搭建 三台机器 分发器,也叫调度器(简写为dir) davery :1.101 rs1 davery01:1.106 rs2 davery02:11.107 vip 133.200 ...
- LVS负载均衡集群服务搭建详解(一)
LVS概述 1.LVS:Linux Virtual Server 四层交换(路由):根据请求报文的目标IP和目标PORT将其转发至后端主机集群中的某台服务器(根据调度算法): 不能够实现应用层的负载均 ...
- 1-2、LVS之Linux集群系统基础
Linux Cluster: 为了满足同一目的的需要,将多台主机组织起来解决统一问题的计算机的集合叫集群 Web Arch 虚拟化和云计算 自动化运维工具:ansible, puppet, zabbi ...
- Linux 笔记 - 第十八章 Linux 集群之(二)LVS 负载均衡集群
一.前言 Linux 集群从功能上可以分为两大类:高可用集群和负载均衡集群.上一篇已经讲解了 HA 高可用集群,此节讲解负载均衡集群. 负载均衡集群(Load Balance Cluseter,简称 ...
随机推荐
- how tomcat works 读书笔记(二)----------一个简单的servlet容器
app1 (建议读者在看本章之前,先看how tomcat works 读书笔记(一)----------一个简单的web服务器 http://blog.csdn.net/dlf123321/arti ...
- 如何搭建modem编译环境
[DESCRIPTION] (1)MT6577以及之前的chip平台(如MT6575,73等) 的modem编译环境和MTK的Feature Phone的编译环境一样,即Windows+RVCT (2 ...
- windows下追踪路由
追踪路由 tracert 目标ip/域名 测试两个ip是否畅通 ping 目标ip 在windows查看ip情况 ipconfig linux/unix下查看ip情况的使用 ifconfig
- 漫谈jdbc
本文可作为北京尚学堂jdbc课程的学习笔记; 简介 jdbc是什么东西? jdbc全称(Java Database Connectivity java数据库连接) 它是干什么的? 至于它是干什么的,那 ...
- Linux - crontab的创建以及注意事项
[root@www ~]# crontab [-u username] [-l|-e|-r] 选项与参数: -u :只有 root 才能进行这个任务,亦即帮其他使用者创建/移除 crontab 工作排 ...
- Shell Script - 追踪与debug
[root@www ~]# sh [-nvx] scripts.sh 选项与参数: -n :不要运行 script,仅查询语法的问题: -v :再运行 sccript 前,先将 scripts 的内容 ...
- Universal-Image-Loader源码分析,及常用的缓存策略
讲到图片请求,主要涉及到网络请求,内存缓存,硬盘缓存等原理和4大引用的问题,概括起来主要有以下几个内容: 原理示意图 主体有三个,分别是UI,缓存模块和数据源(网络).它们之间的关系如下: ① UI: ...
- OpenCV——PS 图层混合算法 (三)
具体的算法原理可以参考 PS图层混合算法之三(滤色, 叠加, 柔光, 强光) // PS_Algorithm.h #ifndef PS_ALGORITHM_H_INCLUDED #define PS_ ...
- <<操作系统精髓与设计原理>>读书笔记(一) 并发性:互斥与同步(1)
<<操作系统精髓与设计原理>>读书笔记(一) 并发性:互斥与同步 并发问题是所有问题的基础,也是操作系统设计的基础.并发包括很多设计问题,其中有进程间通信,资源共享与竞争,多个 ...
- IT轮子系列(二)——mvc API 说明文档的自动生成——Swagger的使用(一)
这篇文章主要介绍如何使用Swashbuckle插件在VS 2013中自动生成MVC API项目的说明文档.为了更好说明的swagger生成,我们从新建一个空API项目开始. 第一步.新建mvc api ...