ngnix apache tomcat集群负载均衡配置
http://w.gdu.me/wiki/Java/tomcat_cluster.html
- 参考:
- Tomcat与Apache或Nginx的集群负载均衡设置: http://huangrs.blog.51cto.com/2677571/1058579
- Tomcat与Apache或Nginx连接和集群配置: http://toplchx.iteye.com/blog/1928390
系统环境设置
- 准备三台redhat linux 5或 centos服务器:
- 负载均衡服务器:Apache安装自带的web发布服务(httpd服务) IP地址:192.168.0.100
- Tomcat发布服务器1:安装有两个发布服务tomcat1和tomcat2 IP地址:192.168.0.101
- Tomcat发布服务器2:安装有两个发布服务tomcat3和tomcat4 IP地址:192.168.0.102
- 统一对外部发布的地址是:http://192.168.0.100 (即负载均衡地址)
- 在设定完成IP以后,最好先设置主机名和IP的对应关系:
1234
cat
/etc/hosts
192.168.0.100 web.example.com web
#add
127.0.0.1 localhost.localdomain localhost
::1 localhost6.localdomain6 localhost6
Tomcat发布器的安装
JDK安装
- JDK软件最新版下载:http://www.oracle.com/technetwork/java/javase/downloads/index.html
- 点击排列的最左边一个大图标的“JDK”进入,
- 接下来选择服务器的版本(如linux),在“I agree”前面方框中打勾选中,再按“continue”下一步
- 选择下面一个版本进行下载,如jdk-6u24-linux-i586.bin
- 下载完成后上传到web服务器上的“/tools”目录下(自己建的目录)
- JDK软件的安装
123456789101112
# 先查看当前JDK的版本是多少
java –version
# 进入下载目录,授权JDK文件的可执行权限
cd
/tools/
chmod
a+x jdk-6u24-linux-i586.bin
# 执行JDK的安装解压缩,完成后按回车结束
.
/jdk-6u24-linux-i586
.bin
# 把解压出来的目录移动到/usr/local下面
mv
jdk1.6.0_24
/usr/local/
- 配置JAVA的环境变量
- 新建环境变量文件java.sh
1234567
cat
>
/etc/profile
.d
/java
.sh <<EOF
# set java environment
export
JAVA_HOME=
/usr/local/jdk1
.6.0_24
export
CLASSPATH=.:\$JAVA_HOME
/lib/dt
.jar:\$JAVA_HOME
/lib/tools
.jar
export
PATH=\$JAVA_HOME
/bin
:\$PATH
EOF
chmod
a+x
/etc/profile
.d
/java
.sh
- 重新登录终端,再次查询java的版本号是否升级了:
java -version
- 新建环境变量文件java.sh
- Tomcat软件最新版下载:http://tomcat.apache.org/
(1)先选择Download下面的tomcat版本(如tomcat 7.0) (2)再点击“Core”下面的“tar.gz”进行下载,如apache-tomcat-7.0.12.tar.gz (3)下载完成后上传到web服务器上的“/tools”目录下(自己建的目录)
Tomcat安装
- 安装tomcat
12345678910
# 进入下载目录,进行解压缩:
cd
/tools
tar
zxvf apache-tomcat-7.0.12.
tar
.gz
# 复制并重命名目录到/usr/lcoal下面
ls
-l
cp
apache-tomcat-7.0.12
/usr/local/tomcat1
#(web1服务器)
cp
apache-tomcat-7.0.12
/usr/local/tomcat2
#(web1服务器)
cp
apache-tomcat-7.0.12
/usr/local/tomcat3
#(web2服务器)
cp
apache-tomcat-7.0.12
/usr/local/tomcat4
#(web2服务器)
- 配置tomcat发布器的端口
- web1服务器tomcat1:vi tomcat1/conf/server.xml(修改如下四个地方:)
12345
<
Server
port
=
"8005"
shutdown
=
"SHUTDOWN"
>
<!--'8005'改为'8001'端口-->
<
Connector
port
=
"8080"
protocol
=
"HTTP/1.1"
>
<!--'8080'发布端口改为'81'端口-->
<
Connector
port
=
"8009"
protocol
=
"AJP/1.3"
redirectPort
=
"8443"
/>
<!--改为'8011'端口-->
<!--Engine name="Catalina" defaultHost="localhost"-->
<
Engine
name
=
"Catalina"
defaultHost
=
"localhost"
jvmRoute
=
"tomcat1"
>
- web1服务器tomcat2:port:8002, http:82, ajp:8012, jvmRote:tomcat2
- web1服务器tomcat3:port:8003, http:83, ajp:8013, jvmRote:tomcat3
- web1服务器tomcat4:port:8004, http:84, ajp:8014, jvmRote:tomcat4
- web1服务器tomcat1:vi tomcat1/conf/server.xml(修改如下四个地方:)
- 在tomcat的server.xml配置参数据中增加session同步复制的设置
- vi server.xml (增加下列代码,增加Engine后面的cluster中去)
1234567891011121314151617181920212223242526272829303132333435363738
<!--
<Cluster className="org.apache.catalina.ha.tcp.SimpleTcpCluster"/>
-->
<!--下面的代码是实现session复制功能-->
<
Cluster
className
=
"org.apache.catalina.ha.tcp.SimpleTcpCluster"
channelSendOptions
=
"6"
>
<
Manager
className
=
"org.apache.catalina.ha.session.BackupManager"
expireSessionsOnShutdown
=
"false"
notifyListenersOnReplication
=
"true"
mapSendOptions
=
"6"
/>
<
Channel
className
=
"org.apache.catalina.tribes.group.GroupChannel"
>
<
Membership
className
=
"org.apache.catalina.tribes.membership.McastService"
address
=
"228.0.0.4"
port
=
"45564"
frequency
=
"500"
dropTime
=
"3000"
/>
<
Receiver
className
=
"org.apache.catalina.tribes.transport.nio.NioReceiver"
address
=
"192.168.100.63"
<!—这里填写本机IP地址-->
port="5000"
selectorTimeout="100" />
<
Sender
className
=
"org.apache.catalina.tribes.transport.ReplicationTransmitter"
>
<
Transport
className
=
"org.apache.catalina.tribes.transport.nio.PooledParallelSender"
/>
</
Sender
>
<
Interceptor
className
=
"org.apache.catalina.tribes.group.interceptors.TcpFailureDetector"
/>
<
Interceptor
className
=
"org.apache.catalina.tribes.group.interceptors.MessageDispatch15Interceptor"
/>
<
Interceptor
className
=
"org.apache.catalina.tribes.group.interceptors.ThroughputInterceptor"
/>
</
Channel
>
<
Valve
className
=
"org.apache.catalina.ha.tcp.ReplicationValve"
filter
=
".*\.gif;.*\.js;.*\.jpg;.*\.png;.*\.htm;.*\.html;.*\.css;.*\.txt;"
/>
<
Valve
className
=
"org.apache.catalina.ha.session.JvmRouteBinderValve"
/>
<
Deployer
className
=
"org.apache.catalina.ha.deploy.FarmWarDeployer"
tempDir
=
"/tmp/war-temp/"
deployDir
=
"/tmp/war-deploy/"
watchDir
=
"/tmp/war-listen/"
watchEnabled
=
"false"
/>
<
ClusterListener
className
=
"org.apache.catalina.ha.session.JvmRouteSessionIDBinderListener"
/>
<
ClusterListener
className
=
"org.apache.catalina.ha.session.ClusterSessionListener"
/>
</
Cluster
>
- vi server.xml (增加下列代码,增加Engine后面的cluster中去)
- 同时需要修改tomcat的web.xml配置参数才能真正实现session同步复制的设置
- web.xml
12345678
<!--....--!>
<welcome-file-list>
<welcome-file>index.html</welcome-file>
<welcome-file>index.htm</welcome-file>
<welcome-file>index.jsp</welcome-file>
</welcome-file-list>
<distributable /> <!--在倒数第二行增加这个代码才能实现session同步复制功能-->
</
web-app
>
- web.xml
- 设置Tomcat发布服务开机自启动
- 复制tomcat启动文件到开机目录下:
cp tomcat1/bin/catalina.sh /etc/rc.d/init.d/tomcat1
- 修改上面的tomcat1启动文件:vim /etc/rc.d/init.d/tomcat1(在文件的最顶上添加下列几行)
#chkconfig:35 85 15
#description:tomcat1 server
CATALINA_HOME=/usr/local/tomcat1
JRE_HOME=/usr/local/jdk1.6.0_24 - 添加tomcat1到开机启动服务
chkconfig --add tomcat1
chkconfig --list tomcat1
chkconfig tomcat1 on
service tomcat1 start
- 复制tomcat启动文件到开机目录下:
- 其它三个tomcat2 、tomcat3 、tomcat4 也都按上面三步来做
- 如何查看tomcat的启动过程
- 方法一:用catalina.sh来启动:
./catalina.sh run
- 方法二:如果用
./startup.sh
启动的话,查看启动日志tail –f /usr/local/tomcat4/logs/catalina.out
- 方法一:用catalina.sh来启动:
Apache Proxy负载均衡
- Apache发布器使用系统自带的httpd服务,在安装操作系统的时候先选择好服务器下面的web服务器组件。
- 修改配置web发布服务的参数文件:
- vim /etc/httpd/conf/httpd.conf (在最底下添加如下内容)
1234567891011121314151617181920212223
ServerName localhost:80
#发布的端口说明
<VirtualHost *:80>
ServerAdmin admin@china1168.com
ServerName localhost
ServerAlias localhost
<proxy balancer:
//testcluster
>
#testcluster可自己命名,没什么特别的意义
BalancerMember ajp:
//192
.168.0.101:8011 loadfactor=1 route=tomcat1
#要与tomcat中的ajp对应
BalancerMember ajp:
//192
.168.0.101:8012 loadfactor=1 route=tomcat2
BalancerMember ajp:
//192
.168.0.102:8013 loadfactor=1 route=tomcat3
BalancerMember ajp:
//192
.168.0.104:8014 loadfactor=1 route=tomcat4
<
/proxy
>
ProxyRequests Off
ProxyPass
/server-status
!
ProxyPass
/balancer-manager
!
ProxyPass / balancer:
//testcluster/
stickysession=JSESSIONID
#注意balancer前面有空格
ProxyPassReverse / balancer:
//testcluster/
#注意balancer前面有空格
<
/VirtualHost
>
SetHandler server-status
<
/Location
>
SetHandler balancer-manager
<
/Location
>
- vim /etc/httpd/conf/httpd.conf (在最底下添加如下内容)
- 负载均衡集群测试实例
- 在tomcat目录下面的webapps文件夹中新建test测试文件:
- mkdir webapps/test
- vi test/index.jsp(文件内容如下)
<%@ page contentType="text/html; charset=UTF-8" %>
<%@ page import="java.util.*" %>
<html><head><title>Cluster App Test</title></head>
<body>
Server Info:
<%
request.setCharacterEncoding("UTF-8");
out.println(request.getLocalAddr() + " : " + request.getLocalPort()+"<br>");%>
<%
out.println("<br> ID " + session.getId()+"<br>"); // 如果有新的 Session 属性设置
String dataName = request.getParameter("dataName");
if (dataName != null && dataName.length() > 0) {
String dataValue = request.getParameter("dataValue");
session.setAttribute(dataName, dataValue);
} out.print("<b>Session 列表</b>"); Enumeration e = session.getAttributeNames();
while (e.hasMoreElements()) {
String name = (String)e.nextElement();
String value = session.getAttribute(name).toString();
out.println( name + " = " + value+"<br>");
System.out.println( name + " = " + value);
}
%>
<form action="index.jsp" method="POST">
名称:<input type=text size=20 name="dataName"><br>
值:<input type=text size=20 name="dataValue"><br>
<input type=submit>
</form>
</body>
</html> - 对Apache负载均衡进行测试:
- 登录测试首页: http://192.168.0.100/test/index.jsp
- 登录管理界面:http://192.168.0.100/balancer-manager 可查看“Elected”的选中状态
- 登录状态界面:http://192.168.0.100/server-status
- 同时查看各个tomcat的日志文件,看看上面提交的测试内容是在哪个tomcat中显示出来
tail -f /usr/local/tomcat1/logs/catalina.out
tail -f /usr/local/tomcat2/logs/catalina.out
tail -f /usr/local/tomcat3/logs/catalina.out
tail -f /usr/local/tomcat4/logs/catalina.out
- 正常情况下,提交的测试内容会在四个tomcat之间轮循显示,实现负载均衡。
- 设置Apache发布服务开机自启动:
chkconfig httpd on
Nginx负载均衡
nginx安装
- 安装前必须要先下载相关联的配套软件包:
- pcre套件包下载: ftp://ftp.csx.cam.ac.uk/pub/software/programming/pcre/ (一定要先安装)
- nginx最新版下载: http://www.nginx.org/en/download.html (一定要安装)
- openssl套件包下载:http://www.openssl.org/source/ (可选安装)
- 相关联软件的安装
- pcre套件的安装,进入下载目录,进行解压缩:
12345
cd
/tools
tar
zxvf pcre-8.12.
tar
.gz
cd
pcre-8.12
.
/configure
#默认是安装在/usr/local/目录下面,也可指定目录加参数 --prefix=/usr/local/
make
&&
make
install
- pcre套件的安装,进入下载目录,进行解压缩:
- openssl套件的安装,进入下载目录,进行解压缩(可选)
12345
cd
/tools
tar
zxvf openssl-1.0.0d.
tar
.gz
cd
openssl-1.0.0d
.
/configure
# 默认是安装在/usr/local/目录下面,也可指定目录加参数 --prefix=/usr/local/
make
&&
make
install
- Nginx软件的安装和配置
12345
cd
/tools
tar
zxvf nginx-1.0.0.
tar
.gz
cd
nginx-1.0.0
.
/configure
#默认是安装在/usr/local/目录下面,也可指定目录加参数 --prefix=/usr/local/
make
&&
make
install
- 测试安装是否成功
12345
cd
/usr/local/nginx/sbin/
.
/nginx
-t
nginx: the configuration
file
/usr/local/nginx/conf/nginx
.conf syntax is ok
nginx: configuration
file
/usr/local/nginx/conf/nginx
.conf
test
is successful
nginx负载配置
- vim /usr/local/nginx/conf/nginx.conf (修改增加下面的内容)
1234567891011121314151617
pid logs
/nginx
.pid;
upstream tomcat {
# 负载均衡站点的名称为tomcat,可以自己取
ip_hash;
# 可选,根据来源IP方式选择web服务器,省略的话按默认的轮循方式选择web服务器
server 192.168.0.101:81;
# web服务器的IP地址及tomcat发布端口
server 192.168.0.101:82;
server 192.168.0.102:83;
server 192.168.0.102:84;
}
server {
listen 80;
# 站点侦听端口80
server_name localhost;
# 站点名称
location / {
root html;
index index.html index.htm;
proxy_pass http:
//tomcat
;
# 负载均衡指向的发布服务tomcat
}
- 注意:
upstream
部分要放在server { listen 80
这部分的前面,不能放到下面去,不然会出错proxy_pass
部分要放在localtion这部分的括号里面,且http://
后面跟的名称要与上面upstream
中一样
- 启动负载均衡服务
12345678910111213141516171819
cd
/usr/local/nginx/sbin/
.
/nginx
-t
# 测试配置有无错误
.
/nginx
# 启动服务
netstat
-tlnp |
grep
:80
#查看nginx端口的进程号
kill
-9 11274
#杀死nginx的主进程,11274是上面查询出来的主进程号,实际环境中不一定一样
# 在线修改配置参数(在nginx启动的情况),并让它重新加载,其间nginx不用停止服务。
vi
nginx.conf
kill
-HUP `
cat
/usr/local/nginx/logs/nginx
.pid`
# 设置Nginx开机自动启动
vim
/etc/rc
.d
/init
.d
/nginx
,增加内容
#chkconfig:35 80 10
#description:Nginx server
/usr/local/nginx/sbin/nginx
chmod
a+x nginx
chkconfig --add nginx
chkconfig nginx on
Tomcat与Apache或Nginx连接和集群配置
Tomcat的连接方式
- 官方文档参考:http://tomcat.apache.org/tomcat-7.0-doc/connectors.html
- Tomcat与Web服务器的连接方式有两种:
- HTTP: HTTP连接器是Tomcat默认的方式,并且已经被使用。这种方式具有最低的延迟和最佳的整体性能。对于集群,需要一个支持粘性会话的web服务器在Tomcat前端。Tomcat支持mod_porxy(被默认包含在Apache HTTP Server 2.2)作为负载平衡器。值得注意的是,通常情况下HTTP proxy的性能低于AJP的性能,所以集群时AJP是优选。
- AJP: 单个服务器,一个本地WEB服务器和一个Tomcat实例连接的效率通常低于单个Tomcat使用其默认的HTTP连接的方式,即使web应用大部分都是静态内容。如果为了某种原因,你需要整合一个本地WEB服务器,那么AJP连接将提供更好的效率。对于Tomcat集群,AJP连接是最有效的,其他功能和HTTP集群一样。
Tomcat7所支持的本地连接:
- JK 1.2 .x
- mod_proxy (Apache HTTP Server 2.2默认包含)
其他AJP连接器可能可以工作,但不再维护。
Tomcat 与 Apache HTTP Server2.4连接
HTTP连接
从上面的说明可以看出,如果你只需要一个Tomcat,那就直接用就好了,不用和Apache HTTP Server连接。如果需要多个Tomcat集群,就是AJP连接。所以用HTTP连接Apache和Tomcat这种情况应该不多,简单说明一下怎么连接: 取消两个module的注释:
LoadModule proxy_module modules/mod_proxy.so
LoadModule proxy_http_module modules/mod_proxy_http.so
在httpd.conf文件中添加以下两行:
ProxyPass /webappname http://ip:8080/webappname
ProxyPassReverse /webappname http://ip:8080/webappname
ip、端口号和webappname根据实际情况修改
说明:上述写法可能有安全隐患。不要使用ProxyRequests启用代理,除非对代理做了权限控制。否则对你的网络和互联网都是很大的危险。默认ProxyRequests为off。
参考:http://httpd.apache.org/docs/2.4/mod/mod_proxy.html#access
AJP连接
AJP连接官方支持两种方式JK 1.2.x和mod_proxy。
JK是老牌连接器,被广泛使用和验证,值得信任,但是配置比较复杂。
mod_proxy是Apache2.2以后的默认设置,配置简单,但是因为比较新,所以没有经过大范围的验证。
网上JK的文档比较多,这里我们介绍一下mod_proxy的写法。其实跟HTTP的方式一样,只是把http://
修改为ajp://
就可以了。
取消两个module的注释
LoadModule proxy_module modules/mod_proxy.so
LoadModule proxy_ajp_module modules/mod_proxy_ajp.so
在httpd.conf文件中添加以下行:
ProxyPass /webappname ajp://ip:8009/webappname
ip、端口号和webappname根据实际情况修改
AJP连接通常不需要设置ProxyPassReverse。
参考:http://httpd.apache.org/docs/2.4/mod/mod_proxy_ajp.html
Apache HTTP Server2.4集群配置
如文章开始所述,Apache Http Server和Tomcat集群要用AJP方式连接
- modules
同样集群可以用JK和mod_proxy两种方式,这里介绍mod_proxy的方式:
取消五个module的注释
LoadModule proxy_module modules/mod_proxy.so
LoadModule proxy_ajp_module modules/mod_proxy_ajp.so
LoadModule proxy_balancer_module modules/mod_proxy_balancer.so
LoadModule slotmem_shm_module modules/mod_slotmem_shm.so
LoadModule lbmethod_heartbeat_module modules/mod_lbmethod_heartbeat.so
根据负载均衡调度策略的不同,取消如下module的注释
LoadModule lbmethod_byrequests_module modules/mod_lbmethod_byrequests.so
LoadModule lbmethod_bytraffic_module modules/mod_lbmethod_bytraffic.so
LoadModule lbmethod_bybusyness_module modules/mod_lbmethod_bybusyness.so
- 示例配置:
123456789101112131415
<Proxy balancer:
//mycluster
>
#定义一个集群,起个名字
#定义集群成员。loadfactor是权重,数值越大权重越大被分配的请求约多。route和Tomcat中配置的jvmRoute一至。
#还有一些参数可以添加,比如:max=20 ttl=120 retry=300 timeout=15,详细参考:http://httpd.apache.org/docs/2.4/mod/mod_proxy.html#proxypass
BalancerMember ajp:
//ip
:8019 loadfactor=1 route=tomcat7_a
BalancerMember ajp:
//ip
:8029 loadfactor=2 route=tomcat7_b
#热备服务器,只有在上面的BalancerMember都坏掉之后才会被启用。
BalancerMember ajp:
//ip
:8009 status=+H
#现有3种负载均衡调度策略
#byrequests:请求计数(Request Counting)
#bytraffic:流量加权计数(Weighted Traffic Counting)
#bybusyness:挂起请求计数(Pending Request Counting)
#默认是byrequests
ProxySet lbmethod=bytraffic
<
/Proxy
>
ProxyPass
/examples
balancer:
//mycluster/examples
#设置代理连接
- 负载均衡器的粘性
当一个请求被代理到某个节点,接下来同一个用户的请求都将被代理到相同的节点。很多均衡器通过一张记录客户端ip和节点的关系表来实现这个特性。这种方式对客户端和节点都是透明的,但是存在一些问题:如果客户端藏在某些代理之后将导致负载分布不均,当客户端使用动态IP地址,并在请求间变更,将失去粘性,关系表溢出将导致错误等问题。
mod_proxy_balancer通过两种方式实现粘性:cookies和URL encoding。cookie可以被Apache服务器和节点使用,URL encoding通常在节点中使用。
下面的例子使用mod_headers提供负载均衡粘性,即使节点服务器没有设置合适的session cookie。
Header add Set-Cookie "ROUTEID=.%{BALANCER_WORKER_ROUTE}e; path=/" env=BALANCER_ROUTE_CHANGED
<Proxy balancer://mycluster>
......
</Proxy>
ProxyPass /test balancer://mycluster
env变量有6种,参考:http://httpd.apache.org/docs/2.4/mod/mod_proxy_balancer.html#environment
以下配置同时支持cookies和URL encoding
ProxyPass /test balacer://mycluuster stickysession=JSESSIONID|jsessionid scolonpathdelim=On
<Proxy balancer://mycluster>
BlancerMember http://192.168.1.50:80 route=node1
BlancerMember http://192.168.1.51:80 route=node2
</Proxy>
- Log
LogFormat "%v %h %l %u %t \"%r\" %{Set-Cookie}o %{BALANCER_SESSION_STICKY}e %{BALANCER_SESSION_ROUTE}e %{BALANCER_WORKER_ROUTE}e %>s %b" balance_common
CustomLog logs/balance_log balance_common
将集群的日志写到Apache服务器目录下的logs/balance_log文件中。
参考:http://httpd.apache.org/docs/2.4/mod/mod_proxy_balancer.html#stickyness_troubleshooting
- 均衡器管理界面
需要mod_status。管理页面可以动态更新集群成员,修改平衡器的属性和特定成员或使之离线。
<Location /balancer-manager>
SetHandler balancer-manager
Require ip 192.168
</Location>
你可以通过http://your.server.name/balancer-manager
访问管理页面。
注意,只有balancers在<Location ...>之外定义,才能使用管理页面。
Tomcat 与 Nginx连接
HTTP连接
1
2
3
4
5
6
7
8
|
server { #添加一个站点 listen 82; #设置端口 server_name localhost; #站点名称/域名 location / { #设置路径 proxy_pass http: //ip :8080; #http代理,指向tomcat http地址 } } |
在nginx.conf文件中添加一个server{},listen设置端口,server_name设置域名,location设置目录。
proxy_pass是http代理,指向tomcat地址。
修改后conf后,nginx -s reload就可以热更新了,很方便。
AJP连接
关于AJP连接,有一种说法是Nginx采用连接池,所以HTTP方式的连接不比AJP方式差。
有人的测试结果是Nginx通过HTTP连接Tomcat 性能略强于Apache通过AJP连接Tomcat。
参见:http://nginx.2469901.n2.nabble.com/AJP-td7582236.html
Nginx本身并不支持AJP连接,但有人写了一个nginx_ajp_module来支持ajp。由于是第三方控件,所以请在充分测试后使用。
- 下载地址:https://github.com/yaoweibin/nginx_ajp_module
- 安装
cd nginx_dir/
patch -p1 < /tools/nginx_ajp_module/ajp.patch
./configure --prefix=/usr/nginx1.5.3 --add-module=/tools/nginx_ajp_module
make
make install
先到nginx安装文件的目录下,打ajp补丁,重新配置configure,编辑,安装。
- 配置nginx.conf文件
123456789
server {
listen 82;
server_name localhost;
location / {
ajp_keep_conn on;
#设置是否保持连接
ajp_pass ajp:
//ip
:8009;
#Tomcat ajp连接地址和端口
}
}
其他配置详情参考:https://github.com/yaoweibin/nginx_ajp_module
Nginx集群配置
HTTP
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
|
upstream tomcat_http { #用upstream定义一组服务器 #ip_hash通过记录客户端ip实现粘性session。有一个第三方的module可以用cookie实现粘性:https://code.google.com/p/nginx-sticky-module/ ip_hash; #通过server定义多个服务器 #weight是权重,默认为1。 #max_fails和fail_timeout配合使用,在fail_timeout时间内通信失败达到max_fails的次数后,此服务器在fail_timeout时间内被认为不可用。 server 192.168.50.65:8090 weight=2; server 192.168.50.65:8091 max_fails=3 fail_timeout=30s; #keepalive为连接开启缓存,并设置缓存连接的最大数量。 keepalive 10; } server { listen 82; server_name localhost; location / { #将proxy_pass后的服务器地址,变为upstream的名字 proxy_pass http: //tomcat_http ; } } |
更多参数说明参考:http://nginx.org/en/docs/http/ngx_http_upstream_module.html
AJP
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
|
upstream tomcat_ajp { # upstream定义一组服务器 #srun_id同Tomcat配置中Engine的jvmRoute。 server 192.168.50.65:8019 srun_id=tomcat7_a weight=2; server 192.168.50.65:8029 srun_id=tomcat7_b; #用cookie方式实现粘性session jvm_route $cookie_JSESSIONID reverse; keepalive 10; } server { listen 82; server_name localhost; location / { ajp_keep_conn on; ajp_pass tomcat_ajp; #指定连接到哪个upstream上 } } |
ngnix apache tomcat集群负载均衡配置的更多相关文章
- Apache + Tomcat集群 + 负载均衡
Part I: 取经处: http://www.ramkitech.com/2012/10/tomcat-clustering-series-simple-load.html http://blog ...
- Ubuntu下基于Nginx实现Tomcat集群负载均衡
版权声明:本文为博主原创文章,未经博主允许不得转载. 目录(?)[+] Nginx是一款HTTP和反向代理服务器,有关它的介绍可以到网上搜一下,很多很多,不再累述.这里,我们记录一下Nginx ...
- 使用Nginx实现Tomcat集群负载均衡
概述 要解决的问题 环境准备以及问题解决思路 配置 测试 小结 一.概述 使用Nginx主要是来解决高并发情况下的负载均衡问题. 二.要解决的问题 1.最主要是负载均衡请求分发. 2.文件上传功能,只 ...
- nginx+tomcat集群负载均衡(实现session复制)
转自:http://talangniao.iteye.com/blog/341512 架构描述 前端一台nginx服务器做负载均衡器,后端放N台tomcat组成集群处理服务,通过nginx转发到后面( ...
- 【nginx+tomcat集群】Nginx1.12.2+Tomcat7集群+负载均衡+Session共享
今天想着将项目优化一下,就想的实现集群分布,在本机测试:利用nginx+tomcat实现 通过上一篇博客(http://www.cnblogs.com/qlqwjy/p/8535235.html),N ...
- 图文解说:Nginx+tomcat配置集群负载均衡
图文解说:Nginx+tomcat配置集群负载均衡 博客分类: appserver nginxTomcatUbuntuLinux网络应用 作者:niumd Blog:http://ari.iteye ...
- 转】Nginx+tomcat配置集群负载均衡
原博文出自于:http://blog.csdn.net/bruce_6/article/details/38228299 感谢! 相信很多人都听过nginx,这个小巧的东西慢慢地在吞食 ...
- Apache+Tomcat +mod_proxy集群负载均衡及session
序言: 在玩Apache+Tomcat +mod_jk集群负载均衡及session的时候发现,还有一种方式可以实现,就是网上各位大牛们说的mod_proxy反向代理. 实在弄的我的知识细胞洋洋.实 ...
- 实战Apache+Tomcat集群和负载均衡
实战Apache+Tomcat集群和负载均衡 目录 1. 什么是J2EE集群... 3 1.1. 序言... 3 1.2. 基本术语... 3 伸缩性(Scalability): ...
随机推荐
- 移动App双周版本迭代实战--转载备用
对于移动互联网产品来说,迭代的速度就是生命.我创业时做移动App时是一周一版,而现在是2周1版.相比起小公司,大公司迭代时间虽长,却更为不易,因为大公司流程更多,参与人数更多,需求更多,实现这样的快速 ...
- Torch vs Theano
Torch vs Theano Recently we took a look at Torch 7 and found its data ingestion facilities less than ...
- Metasploit渗透测试魔鬼训练营
首本中文原创Metasploit渗透测试著作,国内信息安全领域布道者和资深Metasploit渗透测试专家领衔撰写,极具权威性.以实践为导向,既详细讲解了Metasploit渗透测试的技术.流程.方法 ...
- [cocos2d]场景切换以及切换进度显示
本文主要分两个部分叙述,第一是场景切换,第二是场景切换的进度显示. 一.场景切换 参考learn-iphone-and-ipad-cocos2d-game-development 第五章内容 coco ...
- SYS_CONTEXT 详细用法
SELECT SYS_CONTEXT ('USERENV', 'TERMINAL') terminal, SYS_CONTEXT ('USERENV', 'LANGUAGE') lang ...
- Python正则匹配多行,多个数据
最近用Python做一个crawler工具的时候,发现用一个正则表达式可以匹配到个数据的时候用match.group()只能打印出第一个数据,其它数据不能打印出来.最后找到解决方法,现在记录一下,直接 ...
- C#面向对象——方法的重载及构造函数、静态对象。
namespace nameclass2 { class Class2 //方法的重载 { public void Function( string s) { Console.WriteLine(s) ...
- 新Azure 服务仪表盘!
通过仪表盘, 我们可以查看当前状态和历史记录: http://www.windowsazure.cn/support/service-dashboard/
- log4net.dll配置以及在项目中应用 zt
1 首先在项目中引用log4net.dll,然后项目中添加一个配置文件log4net.config <?xml version="1.0" encoding="ut ...
- Devexpress之popupMenu
1.拖放一个BarManager控件barManager1和一个PopupMenu控件popupMenu1 2.设置popupMenu1的Manager属性为barManager1 3.拖放一个Tex ...