一. Nginx介绍

1.1 引言

  • 为什么要学Nginx

    • 问题1: 客户端到底要将请求发送给哪台服务器
    • 问题2: 如果所有客户端的请求都发送给了服务器1
    • 问题2: 客户端发送的请求可能是申请动态资源的, 也有申请静态资源的
  • 服务器搭建集群后
		服务器1
客户端 服务器2 数据库
服务器3
...
  • 使用Nginx做反向代理服务器
		        服务器1
客户端==>Nginx 服务器2 数据库
服务器3
...

1.2 Nginx介绍

  • Nginx是由俄罗斯人研发的, 应对Rambler的网站, 并且2004年发布的第一个版本
  • Nginx的特点
    1. 稳定性极强, 7*24小时不间断运行
    2. Nginx提供了非常丰富的配置实例
    3. 占用内存小, 并发能力强

二. Nginx的安装

2.1 安装Nginx

cd /opt/
mkdir docker_nginx
cd docker_nginx/
vi docker-compose.yml
  • docker-compose.yml
version: '3.1'
services:
nginx:
restart: always
image: daocloud.io/library/nginx:1.9.1
container_name: nginx
ports:
- 80:80

2.2 Nginx的配置文件

  • 关于Nginx的核心配置文件nginx.conf
user  nginx;
worker_processes 1; error_log /var/log/nginx/error.log warn;
#以上统称为全局快
#worker_processes的数值越大, Nginx的并发能力越强
#error_log 代表Nginx的错误日志存放的位置 events {
worker_connections 1024;
}
#event块
#worker_connections的数值越大, Nginx的并发能力越强 http {
include /etc/nginx/mime.types;
default_type application/octet-stream; server {
listen 80;
server_name localhost; location / {
root /usr/share/nginx/html;
index index.html index.htm;
}
#location块
#root: 将接收到的请求根据/usr/share/nginx/html去查找静态资源
#index: 默认去上述的路径中找到index.html或者index.htm
}
#server块
#listen: 代表Nginx监听的端口号
#location: 代表Nginx接收请求的ip
} #http块
#include代表引入一个外部的文件=>/etc/nginx/mime.types中存放着大量的媒体类型
#include /etc/nginx/conf.d/*.conf=>引入了conf.d目录下的以.conf结尾的配置文件

2.3 修改docker-compose.yml文件

  • 加上数据卷
  • volumes:

    - /opt/docker_nginx/conf.d/:/etc/nginx/conf.d
version: '3.1'
services:
nginx:
restart: always
image: daocloud.io/library/nginx:1.9.1
container_name: nginx
ports:
- 80:80
volumes:
- /opt/docker_nginx/conf.d/:/etc/nginx/conf.d

docker-compose down
cd /opt/docker_nginx/
vi docker-compose.yml
docker-compose build
docker-compose up -d
ls
cd conf.d/
vi default.conf
#加上下方的内容

server{
listen 80;
server_name localhost; location / {
root /usr/share/nginx/html;
index index.html index.htm;
}
}

docker-compose restart

三. Nginx的反向代理

3.1 正向代理和反向代理介绍

  • 正向代理:

    1. 正向代理服务器是由客户端设立的
    2. 客户端了解代理服务器和目标服务器都是谁
    3. 帮助咱们实现突破访问权限, 提高访问速度, 对目标服务器隐藏客户端的ip地址
  • 反向代理
    1. 反向代理服务器是配置在服务端的
    2. 客户端是不知道访问的是哪一台服务器的
    3. 达到负载均衡, 并且可以隐藏服务器真正的ip地址

3.2 基于Nginx实现反向代理

  • 准备一个目标服务器
  • 启动之前的tomcat服务器
  • 编写Nginx的配置文件default.conf, 通过Nginx访问到tomcat服务器
  • vi default.conf
server{
listen 80;
server_name localhost; #基于反向代理访问到Tomcat服务器
location / {
proxy_pass http://192.168.59.129:8080/;
}
}

3.3 关于Nginx的location路径映射

  • 优先级关系

    • (location = ) > (location /xxx/yyy/zzz) > (location ^~) > (location ~, ~*) > (location /起始路径) > (location /)
#1. =匹配
location = / {
#精准匹配, 主机名后面不能带任何的字符串
}

#2. 通用匹配
location /xxx {
#匹配所有以/xxx开头的路径
}

#3. 正则匹配
location ~ /xxx {
#匹配所有以/xxx开头的路径
}

#4. 匹配开头路径
location ^~ /images/ {
#匹配所有以/images开头的路径
}

#5. ~* \.(gif|jpg|png)$ {
#匹配以gif或者jpg或者png结尾的路径
}

server{
listen 80;
server_name localhost; location = /index/ {
proxy_pass http://192.168.59.129:8082/; #Tomcat首页
} location ^~ /ssm/ {
proxy_pass http://192.168.59.129:8082/ssm1/; #SSM首页
} #基于反向代理访问到Tomcat服务器
location / {
proxy_pass http://192.168.59.129:8080/; #Hello Nginx!
}
}

四. Nginx负载均衡

Nginx为我们提供了三种负载均衡的策略

  1. 轮询

    • 将客户端发起的请求, 平均的分配给每一台服务器
  2. 权重
    • 会将客户端的请求, 根据服务器的权重值不同, 分配不同的数量
  3. ip_hash
    • 基于发起请求的客户端的ip地址不同, 它始终会将请求发送到指定的服务器上

4.1 轮询

  • 想实现Nginx轮询负载均衡机制只需要在配置文件default.conf中添加以下内容
upstream my-server{
server 192.168.59.129:8080;
server 192.168.59.129:8082;
} server{
listen 80;
server_name localhost; location / {
proxy_pass http://my-server/;
}
}

4.2 权重

  • 实现权重的方式weight=XX, XX越大(数字),占得权重比例越高
upstream my-server{
server 192.168.59.129:8080 weight=10; #Hello
server 192.168.59.129:8082 weight=2; #Tomcat
} server{
listen 80;
server_name localhost; location / {
proxy_pass http://my-server/;
}
}

4.3 ip_hash

  • ip_hash实现
upstream my-server{
ip_hash;
server 192.168.59.129:8080 weight=10; #Hello
server 192.168.59.129:8082 weight=2; #Tomcat
} server{
listen 80;
server_name localhost; location / {
proxy_pass http://my-server/;
}
}

五. Nginx动静分离

  • Nginx并发能力公式

    • worker_processes * worker_connections / 4 | 2 = Nginx最终的并发能力
  • 动态资源需要 / 4
    • 客户端=>Nginx=>服务器
    • 服务器=>Nginx=>客户端
  • 静态资源需要 / 2
    • 客户端=>Nginx
    • Nginx=>客户端
  • Nginx通过动静分离, 来提升Nginx的并发能力, 更快的给用户响应

5.1 动态资源代理

#配置如下
location / {
proxy_pass 路径;
}

5.2 静态资源代理

#配置如下
location / {
root 静态资源路径;
index 默认访问路径下的什么资源;
autoindex on; #代表展示静态资源下的全部内容, 以列表的形式展开
}
#先修改docker-compose.yml, 添加数据卷, 映射到Nginx服务器的一个目录
#添加了index.html和1.png静态资源
#修改配置文件

version: '3.1'
services:
nginx:
restart: always
image: daocloud.io/library/nginx:1.9.1
container_name: nginx
ports:
- 80:80
volumes:
- /opt/docker_nginx/conf.d/:/etc/nginx/conf.d
- /opt/docker_nginx/img/:/data/img
- /opt/docker_nginx/html/:/data/html

docker-compose down
docker-compose up -d
ls
cd html/
vi index.html
#<h1>Hello Static Resource!</h1>
#然后找一张图片拖拽到Linux的root下
cd ~
mv Thread.png 1.png
mv 1.png /opt/docker_nginx/img/
cd /opt/docker_nginx/img/
ls
cd ../conf.d/
vi default.conf

#配置如下
upstream my-server{
ip_hash;
server 192.168.59.129:8080 weight=10; #Hello
server 192.168.59.129:8082 weight=2; #Tomcat
} server{
listen 80;
server_name localhost; #代理到html静态资源
location /html {
root /data;
index index.html;
} #代理到img静态资源
location /img {
root /data;
autoindex on;
}
}

cd ../
docker-compose restart
#访问如下网址
#http://192.168.59.129/html/
#http://192.168.59.129/html/index.html
#http://192.168.59.129/img/
#http://192.168.59.129/img/1.png

六. Nginx集群

6.1 引言

  • 单点故障: 因为Nginx宕机, 导致整个程序的崩溃
  • 如何避免
    • 准备多台Nginx
    • 准备Keepalived, 监听Nginx的健康情况
    • 准备haproxy, 提供一个虚拟的路径, 统一的去接收用户的请求

6.2 搭建步骤

6.2.1 Dockerfile
FROM nginx:1.13.5-alpine

RUN apk update && apk upgrade

RUN apk add --no-cache bash curl ipvsadm iproute2 openrc keepalived

COPY entrypoint.sh /entrypoint.sh

RUN chmod +x /entrypoint.sh

CMD ["/entrypoint.sh"]
6.2.2 entrypoint.sh
#!/bin/bash
#/usr/sbin/keepalived -n -l -D -f /etc/keepalived/keepalived.conf --dont-fork --log-console &
/usr/sbin/keepalived -D -f /etc/keepalived/keepalived.conf nginx -g "daemon off;"
6.2.3 docker-compose.yml
version: '3.1'
services:
nginx_master:
build: #构建自定义镜像
context: ./ #指定dockerfile文件的所在路径
dockerfile: ./Dockerfile #指定Dockerfile文件名称
ports:
- 8081:80
volumes:
- ./index-master.html:/usr/share/nginx/html/index.html
- ./favicon.ico:/usr/share/nginx/html/favicon.ico
- ./keepalived-master.conf:/etc/keepalived/keepalived.conf
networks:
static-network:
ipv4_address: 172.20.128.2
cap_add:
- NET_ADMIN
nginx_slave:
build:
context: ./
dockerfile: ./Dockerfile
ports:
- 8082:80
volumes:
- ./index-slave.html:/usr/share/nginx/html/index.html
- ./favicon.ico:/usr/share/nginx/html/favicon.ico
- ./keepalived-slave.conf:/etc/keepalived/keepalived.conf
networks:
static-network:
ipv4_address: 172.20.128.3
cap_add:
- NET_ADMIN
proxy:
image: haproxy:1.7-alpine
ports:
- 80:6301
volumes:
- ./haproxy.cfg:/usr/local/etc/haproxy/haproxy.cfg
networks:
- static-network networks:
static-network:
ipam:
config:
- subnet: 172.20.0.0/16
6.2.4 keepalived-master.conf
vrrp_script chk_nginx {
script "pidof nginx"
interval 2
} vrrp_instance VI_1 {
state MASTER
interface eth0 #容器内部的网卡名称
virtual_router_id 33
priority 200 #优先级
advert_int 1 authentication {
auth_type PASS
auth_pass letmein
} virtual_ipaddress {
172.20.128.50 #虚拟路径
} track_script {
chk_nginx
}
}
6.2.5 keepalived-slave.conf
vrrp_script chk_nginx {
script "pidof nginx"
interval 2
} vrrp_instance VI_1 {
state BACKUP
interface eth0 #容器内部的网卡名称
virtual_router_id 33
priority 100 #优先级
advert_int 1 authentication {
auth_type PASS
auth_pass letmein
} virtual_ipaddress {
172.20.128.50 #虚拟路径
} track_script {
chk_nginx
}
}
6.2.6 haproxy.cfg
global
log 127.0.0.1 local0
maxconn 4096
daemon
nbproc 4 defaults
log 127.0.0.1 local3
mode http
option dontlognull
option redispatch
retries 2
maxconn 2000
balance roundrobin
timeout connect 5000ms
timeout client 5000ms
timeout server 5000ms frontend main
bind *:6301
default_backend webserver backend webserver
server nginx_master 172.20.128.50:80 check inter 2000 rise 2 fall 5
6.2.7 index-master.html
<h1>master</h1>
6.2.8 index-slave.html
<h1>slave</h1>

6.3 说明

#将以上8个文件拖拽到/opt/docker_nginx_cluster/(通过Xterm的sftp)
cd /opt/
mkdir docker_nginx_cluster
cd docker_nginx_cluster
docker-compose up -d
docker ps -a
#然后访问http://192.168.59.129:8081/ 会看到master, 访问http://192.168.59.129:8082/ 会看到slave
#访问http://192.168.59.129 看到master(默认)
#然后我们把8081端口关闭
docker stop 容器ID
#再次访问http://192.168.59.129 会看到slave
#当8081端口的Nginx服务器挂了之后, 我们还有8082端口的Nginx服务器, 依旧不影响使用
#至此Nginx集群搭建成功

6.4 出现的错误

  • 首先, 如果遇到错误一定要先去查看错误日志
  • 错误1:
    • standard_init_linux.go:228: exec user process caused: no such file or directory
#我在运行docker-compose up -d命令后, 发现nginx_master和nginx-slave这两个容器刚启动就关闭了,然后就去看日志
docker ps -a
docker logs -f 容器ID
#-f: 可以查看日志的最后几行
#然后发现如下错误
#standard_init_linux.go:228: exec user process caused: no such file or directory
#百度了一下是dos字符与unix字符的问题
#因为我使用的notepad++来编辑文件并上传到服务器中,默认是以DOS文本格式来创建的, 需要把文件转换下字符

解决

  1. 安装dos2unix
 yum -y install dos2unix
  1. 将相关文件转换一下字符
dos2unix Dockerfile
  1. 重新构建
docker-compose build
#如果重新构建还不行, 先把所有容器停止再删除后重新启动
docker stop $(docker ps -qa)
docker rm $(docker ps -qa)
docker-compose up -d
  • 错误2:

    • ERROR: Pool overlaps with other one on this address space
  • 在docker中创建networks的时候有时候会报ERROR: Pool overlaps with other one on this address space的错误,这是因为目标网段已经存在的原因,通常这发生在将要创建的networks手动指定了subnet网段地址的时候
  • 这时有两个选择,一是查看已存在的网段是否有容器正在使用,如果没再用了可以删除该网段对应的网卡,二是修改目标的subnet网段地址。
docker network ls
#查看docker网卡 docker network rm 网卡id
#删除docker网卡 docker network inspect 网卡id
#查看docker网卡的相关详细信息

3_Nginx的更多相关文章

随机推荐

  1. V.Internet基础及应用

  2. P2532 [AHOI2012]【一本通提高组合数学】树屋阶梯

    [AHOI2012]树屋阶梯 题目描述 输入格式 一个正整数N( 1 ≤ N ≤ 500 1\le N \le 500 1≤N≤500),表示阶梯的高度. 输出格式 一个正整数,表示搭建方法的个数.( ...

  3. 流式思想概述和两种获取Stream流的方式

    流式思想概述 整体来看,流式思想类似于工厂车间的生产流水线 当需要对多个元素进行操作(特别是多步操作)的时候,考虑到性能及便利性,我们应该首先拼好一个模型步骤方案,然后再按照方法去执行他 这张图中展示 ...

  4. 使用Properties集合存储数据,遍历取出Properties集合中的数据和Properties集合中的方法store和load

    package com.yang.Test.PropertiesStudy; import java.io.FileWriter; import java.io.IOException; import ...

  5. playwright录制脚本

    我喜欢Playwright! 这是微软开源的一款非常强大的自动化工具,再过几年,他很有可能取代Selenium在浏览器自动化的通知地位.使用过一段时间,我没有找到很好的中文资料可以参考,导致很多问题无 ...

  6. docker 部署私人 nuget 服务

    使用docker搭建私有Nuget服务 首先在linux服务器上创建两个容器挂着目录 mkdir /home/nuget/db mkdir /home/nuget/packages 并且对该目录指定写 ...

  7. Luogu2986 [USACO10MAR]伟大的奶牛聚集 (树形DP)

    有点权的重心,拆掉点dfs不就是了吗 //#include <iostream> #include <cstdio> #include <cstring> //#i ...

  8. MySQL 数据查询语句

    一般查询 字段取别名 别名不用加单引号,as 可省略. select t.id ID, t.name 名称 from grade t; 拼接字符串 concat(a, b) select concat ...

  9. 我用开天平台做了一个字符串检查API,hin 简单~~

    摘要:本文使用了工作台的API全生命周期管理和函数管理功能,编写字符串检查的函数,实现了API的快速创建和发布. 本文分享自华为云社区<[我用开天平台做了一个字符串检查API>,作者:人类 ...

  10. Java中字节流的总结及代码练习

    Java中的字节流 在描述字节流时,先知道什么是流 流可以分为:输入流和输出流 输入流和输出流 示意图: 字节流读取内容:二进制,音频,视频 优缺点:可以保证视频音频无损,效率低,没有缓冲区 字节流可 ...