之前都只会照着网上的nginx配置和代码什么的直接拿过来用,但是没系统学习过,所以来系统学习一下nginx内容。

建议服务器不要关闭防火墙,按需开启端口就好,然后云服务器也要设置SSH密钥,安全性高一些。

1、nginx基本概念

(1)nginx是什么,能做什么?

Nginx是什么?Nginx介绍及Nginx的优点 - LNMP一键安装包

Nginx是一个高性能的HTTP和反向代理服务器,特点是占有内存少,并发能力强,事实上nginx的并发能力确实在同类型的网页服务器中表现较好。
nginx专为性能优化而开发,性能是其最重要的考量,实现上非常注重效率,能经受高负载的考验,有报告表明能支持高达50,000个并发连接数。

(2)反向代理

先了解下正向代理
正向代理:如果把局域网外的Internet想象成一个巨大的资源库,则局域网中的客户端要访问Internet,.则需要通过代理服务器来访问,这种代理服务就称为正向代理(如下图所示)

反向代理:其实客户端对代理是无感知的,因为客户端不需要任何配置就可以访问(对比正向代理,浏览器需要配置代理服务器)

我们只需要将请求发送到反向代理服务器,由反向代理服务器去选择目标服务器获取数据后,在返回给客户端(这是之后做反向代理配置的基本理论)

此时反向代理服务器和目标服务器对外就是一个服务器,暴露的是代理服务器地址,隐藏了真实服务器IP地址。

(3)负载均衡

  客户端发送多个请求到服务器,服务器处理请求,有一些可能要与数据库进行交互,服务器处理完毕后,再将结果返回给客户端。

  这种架构模式对于早期的系统相对单一,并发请求相对较少的情况下是比较适合的,成本也低。但是随着信息数量的不断增长,访问量和数据量的飞速增长,以及系统业务的复杂度增加,这种架构会造成服务器相应客户端的请求日益缓慢,并发量特别大的时候,还容易造成服务器直接崩溃。很明显这是由于服务器性能的瓶颈造成的问题,那么如何解决这种情况呢?

  我们首先想到的可能是升级服务器的配置,比如提高CU执行频率,加大内存等提高机器的物理性能来解决此问题,但是我们知道摩尔定律的日益失效(经验之谈,其核心内容为:集成电路上可以容纳的晶体管数目在大约每经过18个月到24个月便会增加一倍。换言之,处理器的性能大约每两年翻一倍,同时价格下降为之前的一半。),硬件的性能提升已经不能满足日益提升的需求了。最明显的一个例子,天猫双十一当天,某个热销商品的瞬时访问量是极其庞大的,那么类似上面的系统架构,将机器都增加到现有的顶级物理配置,都是不能够满足需求的。那么怎么办呢?

  上面的分析我们去掉了增加服务器物理配置来解决问题的办法,也就是说纵向解决问题的办法行不通了,那么横向增加服务器的数量呢?这时候集群的概念产生了。

  单个服务器解决不了,我们增加服务器的数量,然后将请求分发到各个服务器上,将原先请求集中到单个服务器上的情况改为将请求分发到多个服务器上,将负载分发到不同的服务器,也就是我们所说的负载均衡。

(简单理解就是拉货的时候,是要多动用N辆普通的车还是选一辆更大更优秀的车,前者就是负载均衡,后者就是提高服务器配置。一般来说两个方法都用得上)

(4)动静分离

为了加快网站的解析速度,可以把动态资源(jsp、servlet等)和静态资源(html、css、js等)由不同的服务器来解析,加快解析速度。降低原来单个服务器的压力。

2、nginx命令和配置

很早之前就安装了nginx的1.20.2版本,并且为了做项目照着网上做了一些配置。这里主要是学习一下命令和配置文件作用。

  1. [root@VM-20-10-centos ~]# ps -ef | grep nginx
  2. root 8883 7879 0 18:30 pts/1 00:00:00 grep --color=auto nginx
  3. root 20453 1 0 2022 ? 00:00:00 nginx: master process ./sbin/nginx
  4. root 28862 20453 0 2022 ? 00:00:35 nginx: worker process

(1)nginx常用命令

命令都要在/usr/local/sbin内执行nginx文件才能用(如下所示)

  1. # 查看版本
  2.  [root@VM-20-10-centos sbin]# ./nginx -V
  3. nginx version: nginx/1.20.2
  4. built by gcc 9.3.1 20200408 (Red Hat 9.3.1-2) (GCC)
  5. configure arguments:
  1. # 关闭和启动nginx
  2. [root@VM-20-10-centos sbin]# ./nginx -s stop
  3. [root@VM-20-10-centos sbin]# ./nginx
  4. [root@VM-20-10-centos sbin]#
  1. # 重启nginx
  2. [root@VM-20-10-centos nginx]# cd sbin/
  3. [root@VM-20-10-centos sbin]# ./nginx -s reload
  4. [root@VM-20-10-centos sbin]#

主要就是上面这些命令,重要的还是在配置上。

(2)nginx配置文件

完整的路径是/usr/local/nginx/conf/nginx.conf

配置文件主要有三个部分,

第一部分:全局块

从配置文件开始到events块之间的内容,主要会设置一些影响nginⅸ服务器整体运行的配置指令,主要包括配置运行Nginx服务器的用户(组)、允许生成的worker process数,进程PID存放路径、日志存放路径和类型以及配置文件的引入等。
比如上面第一行配置的:

这是nginx服务器并发处理服务的关键配置,worker_processes值越大,可以支持的并发处理量也越多,但是会受到硬件、软件等设备的制约。

第二部分:events块

events块涉及的指令主要影响Nginx服务器与用户的网络连接

常用的设置包括:

1、是否开启对多work process下的网络连接进行序列化,

2、是否允许同时接收多个网络连接,

3、选取哪种事件驱动模型来处理连接请求,

4、每个work process可以同时支持的最大连接数等。

上述例子就表示每个work process支持的最大连接数为1024.

这部分的配置对nginx的性能影响较大,在实际中应该灵活配置

第三部分:http块(主要动手地方)

这算是Nginx服务器配置中最频繁的部分,代理、缓存和日志定义等绝大多数功能和第三方模块的配置都在这里。

需要注意的是:http块也可以包括http全局块、server块。

1、http全局块配置的指令包括文件引入、MIME-TYPE定义、日志定义、连接超时时间、单链接请求数上限等。

  1. http {
  2. include mime.types;
  3. default_type application/octet-stream;
  4.  
  5. #log_format main '$remote_addr - $remote_user [$time_local] "$request" '
  6. # '$status $body_bytes_sent "$http_referer" '
  7. # '"$http_user_agent" "$http_x_forwarded_for"';
  8.  
  9. #access_log logs/access.log main;
  10.  
  11. sendfile on;
  12. #tcp_nopush on;
  13.  
  14. #keepalive_timeout 0;
  15. keepalive_timeout 65;

2、server块

这块和虚拟主机有密切关系,虚拟主机从用户角度看,和一台独立的硬件主机是完全一样的,该技术的产生是为了节省互联网服务器硬件成本。每个http块可以包括多个server块,而每个server块就相当于一个虚拟主机。而每个server块也分为全局server块,以及可以同时包含多个locaton块。
① 全局 server 块
最常见的配置是本虚拟机主机的监听配置和本虚拟主机的名称或IP配置。
② location块,
一个server块可以配置多个location块。

这块的主要作用是基于Nginx服务器接收到的请求字符串(例如server_name/uri-string),对虚拟主机名称(也可以是IP别名)之外的字符串(例如前面的uri-string)进行匹配,对特定的请求进行处理。地址定向、数据缓存和应答控制等功能,还有许多第三方模块的配置也在这里进行。

做实验之前建议先把要修改的配置文件事先备份一下

3、nginx配置实例1-反向代理

在此之前起码也要有个linux服务器(云服务器或者虚拟机都无所谓,主要是要有ip,要能访问)要去安装tomcat,这个也是在之前就安装好了。建议大伙安装都用默认目录。

如果是有服务器并且有项目的人可以不装tomcat,直接nginx做好server配置反向代理再启动就ok,下面有配置模板。这样客户端浏览器就可以访问到对应项目资源了。下面说的是没有项目的情况。

tomcat默认安装目录是/usr/local/tomcat,我之前弄成了/usr/tomcat。

  1. [root@VM-20-10-centos ~]# cd /usr/tomcat/apache-tomcat-9.0.62/bin
  2. [root@VM-20-10-centos bin]# ./version.sh
  3. Using CATALINA_BASE: /usr/tomcat/apache-tomcat-9.0.62
  4. Using CATALINA_HOME: /usr/tomcat/apache-tomcat-9.0.62
  5. Using CATALINA_TMPDIR: /usr/tomcat/apache-tomcat-9.0.62/temp
  6. Using JRE_HOME: /usr/lib/jvm/jre-1.8.0-openjdk-1.8.0.312.b07-1.el7_9.x86_64
  7. Using CLASSPATH: /usr/tomcat/apache-tomcat-9.0.62/bin/bootstrap.jar:/usr/tomcat/apache-tomcat-9.0.62/bin/tomcat-juli.jar
  8. Using CATALINA_OPTS:
  9. Server version: Apache Tomcat/9.0.62
  10. Server built: Mar 31 2022 14:34:15 UTC
  11. Server number: 9.0.62.0
  12. OS Name: Linux
  13. OS Version: 3.10.0-1160.31.1.el7.x86_64
  14. Architecture: amd64
  15. JVM Version: 1.8.0_312-b07
  16. JVM Vendor: Red Hat, Inc.
  17. [root@VM-20-10-centos bin]#

默认端口号本来是8080,我在tomcat的配置文件server.xml里面调成了9090。建议这里先不改配置,用默认配置启动了tomcat就行。

  1. <Connector port="9090" protocol="HTTP/1.1"
  2. connectionTimeout="20000"
  3. redirectPort="8443" />

此外,做图片上传(或者更一般的文件上传)的时候要实现的映射关系,也是在tomcat的server.xml上配置的。

最终效果是:访问公网ip:9090/pictures/图片名,能拿到对应于服务器"/root/photo/图片名"的图片。只是用的话,每个名字对着配置看就好,更具体的参数建议去官网了解。

  1. <Valve className="org.apache.catalina.valves.AccessLogValve" directory="logs"
  2. prefix="localhost_access_log" suffix=".txt"
  3. pattern="%h %l %u %t &quot;%r&quot; %s %b" />
  4. <Context docBase="/root/photo" path="pictures" debug="0" reloadable="true" />

tomcat和nginx的作用关系如下:

在这里说一下:

windows浏览器访问一个地址的时候会先去看host的配置,如果没有的话才会去找DNS服务器。

所以这里要先配置好host文件中192.168.17.129 www.123.com (前面的ip要看自己云服务器或者虚拟机的ip是什么),做好域名重定向。

浏览器(客户端)访问nginx,nginx再去访问服务器中的tomcat资源,对外暴露的始终是nginx的地址。

配置如下:

最终效果是:客户端浏览器访问192.168.17.129:80时(要知道80端口号是用的http协议,还有443端口用的https协议,注意网址内容),服务器会请求本地8080端口的资源(在这里是tomcat服务器的资源,也就是tomcat启动成功后看到的首页页面)。

上面是用tomcat测试nginx,而nginx配置文件里一般的server配置模板如下:

  1. # 直接在http块里面粘配置,location指代vue打包文件项目的位置(/root/front_end/pim-vue/dist),server_name一般设置内网ip或者本机IP,listen设置端口号
  2. server {
  3. listen 12345;
  4. server_name localhost;
  5.  
  6. location / {
  7. root /root/front_end/pim-vue/dist;
  8. try_files $uri $uri/ /index.html;
  9. }
  10. }
  11.  
  12. [root@VM-20-10-centos conf]# vi nginx.conf
  13. [root@VM-20-10-centos conf]# cd
  14. [root@VM-20-10-centos ~]# cd front_end/
  15. [root@VM-20-10-centos front_end]# cd pim-vue/
  16. [root@VM-20-10-centos pim-vue]# ls
  17. dist
  18. [root@VM-20-10-centos pim-vue]#

实现效果:配置好之后重启nginx,浏览器通过“公网ip:12345”访问服务器,就可以访问到localhost的vue项目(位置是/root/front_end/pim-vue/dist)的资源了。

如果是要做到访问 ip:9001/edu/* 和 ip:9001/vod/* 时转发至不同端口号,可以用如下配置。

这里8001和8002分别是两个tomcat服务器的资源。做的时候注意改掉server.xml的配置(改法就跟上面我改成9090一样)。

location正则表达式的说明:

1、= :用于不含正则表达式的 uri 前,要求请求字符串与uri严格匹配,如果匹配成功,就停止继续向下搜索并立即处理该请求。
2、~ :用于表示uri包含正则表达式,并且区分大小写。(上面的测试用的是这个)
3、~* :用于表示uri包含正则表达式,并且不区分大小写.
4、^~:用于不含正则表达式的 uri 前,要求Nginx服务器找到标识 uri 和请求字符串匹配度最高的location后,立即使用此 location 处理请求,而不再使用location块中的正则uri和请求字符串做匹配。
注意:如果uri包含正则表达式,则必须要有~或者~*标识

4、nginx配置实例2-负载均衡

事前准备:两个tomcat服务器,设置部署到不同的端口号,开启防火墙端口(如果是腾讯云的宝塔模板服务器的话,不要用39000-40000端口号,

另外,其它版本不知道,反正9.0.62版本的话,如果要部署两台tomcat,配置文件中的server.xml中两个端口号都要改掉

================================================================================

这里面只有20000是要处理防火墙端口问题,8006不用。

见到页面就成功了。

在各自服务器webapp目录下建文件夹和文件(这里只展示其中一个配置):

  1. <!-- a.html -->
  2. <h1>20001</h1>

nginx的配置(注意upstream是在http块内配置):

测试:

我在nginx配置文件中的修改仅限于上图展示的部分,location什么的都没动。这里就可以直接访问到tomcat服务器的webapp下edu文件夹下的a.html。

如果直接访问ip:20000则会访问到tomcat启动页面首页。

关键是下面这种效果,这种效果才说明已经做好了负载均衡。

实际做下来的话,简单的负载均衡就上面几行配置+项目部署就完事了。

Nginx提供了几种分配方式(策略):
1、轮询(默认)
每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器down掉,能自动剔除。

2、weight
weight代表权重,默认为1,权重越高被分配的客户端越多。(这东西在upstream内配置:server localhost:20000 weight=5; 
指定轮询几率,weight和访问比率成正比,用于后端服务器性能不均的情况。

下面两种注意分号

3、ip_hash

每个请求按访问的ip的hash结果分配,这样每个访客固定访问一个后端服务器(这是说客户端第一次访问的是A端口,之后就一直访问A端口,除非客户端换个ip地址),可以解决session共享的问题。例如:

  1. upstream myserver {
  2. ip_hash
  3. server localhost:20000;
  4. server localhost:20001;
  5. }

4、fair(第三方)

按照后端服务器的响应时间来分配请求,响应时间短的优先分配

  1. upstream myserver {
  2. server localhost:20000;
  3. server localhost:20001;
         fair
  4. }

5、nginx配置实例3-动静分离

  Nginx动静分离简单来说就是把动态跟静态请求分开,不能理解成只是单纯的把动态页面和静态页面物理分离。
严格意义上说应该是动态请求跟静态请求分开,可以理解成使用Nginx处理静态页面,Tomcat处理动态页面。

动静分离从目前实现角度来讲大致分为两种,
一种是纯粹把静态文件独立成单独的域名,放在独立的服务器上,也是目前主流推崇的方案

另外一种方法就是动态跟静态文件混合在一起发布,通过Nginx来分开。

通过location指定不同的后缀名实现不同的请求转发。通过expires参数设置,可以使浏览器缓存过期时间,减少与服务器之前的请求和流量。
具体Expires定义:是给一个资源设定一个过期时间,也就是说无需去服务端验证,直接通过浏览器自身确认是否过期即可,所以不会产生额外的流量。此种方法非常适合不经常变动的资源。(如果经常更新的文件,不建议使用Expires来缓存),我这里设置3d,表示在这3天之内访问这个URL,发送一个请求,比对服务器该文件最后更新时间没有变化,则不会从服务器抓取,返回状态码304,如果有修改,则直接从服务器重新下载,返回状态码200。

事前准备

tomcat已经准备好了,现在要准备静态资源。

  1. [root@VM-20-10-centos tomcat_nginx_test]# ls
  2. apache-tomcat-9.0.62.tar.gz static tomcat_20000 tomcat_20001
  3. [root@VM-20-10-centos tomcat_nginx_test]# tree -a static
  4. static
  5. ├── html
  6. └── a.html
  7. └── img
  8. └── 1.jpg
  9.  
  10. 2 directories, 2 files
  1. <!-- a.html -->
  2. <h1>static html</h1>

修改nginx.conf(注意location里面要一一对应)

测试效果:

这里只有开了autoindex on才会有这种效果。一定要是/img/ ,注意斜杠。

这里只是静态的情况,访问的都是图片、html文件。

而直接访问服务器ip,直接跳转到nginx首页,这个就是动态请求的情况。

(直接访问服务器ip默认是跟服务器80端口号建立http链接,自然是跳到nginx首页。而想要跳到tomcat首页,改改配置就好了。或者直接访问前面配置好的tomcat服务器端口号。)

6、nginx配置高可用集群

nginx宕机之后,请求没办法响应。所以搞两个以上的nginx。

7、nginx原理

nginx学习(基本概念、配置和命令、反向代理、负载均衡、动静分离)的更多相关文章

  1. 如何使用Weave以及Docker搭建Nginx反向代理/负载均衡服务器

    Hi, 今天我们将会学习如何使用 Weave 和 Docker 搭建 Nginx 的反向代理/负载均衡服务器.Weave 可以创建一个虚拟网络将 Docker 容器彼此连接在一起,支持跨主机部署及自动 ...

  2. Nginx 反向代理 负载均衡 虚拟主机配置

    Nginx 反向代理 负载均衡 虚拟主机配置 通过本章你将学会利用Nginx配置多台虚拟主机,清楚代理服务器的作用,区分正向代理和反向代理的区别,搭建使用Nginx反向搭理和负载均衡,了解Nginx常 ...

  3. 【转】Nginx 反向代理 负载均衡 虚拟主机配置

    原文:http://www.cnblogs.com/itdragon/p/8059000.html Nginx 反向代理 负载均衡 虚拟主机配置 通过本章你将学会利用Nginx配置多台虚拟主机,清楚代 ...

  4. Centos7.4 Nginx反向代理+负载均衡配置

    Ningx是一款高性能的HTTP和反向代理服务器,配置起来也比较简单. 测试环境: 172.16.65.190 Nginx-反向代理 172.16.65.191 Ningx-Web 172.16.65 ...

  5. Nginx 反向代理 负载均衡 虚拟主机

    Nginx 反向代理 负载均衡 虚拟主机配置 通过本章你将学会利用Nginx配置多台虚拟主机,清楚代理服务器的作用,区分正向代理和反向代理的区别,搭建使用Nginx反向搭理和负载均衡,了解Nginx常 ...

  6. 十.nginx反向代理负载均衡服务实践部署

    期中集群架构-第十章-nginx反向代理负载均衡章节章节====================================================================== 0 ...

  7. Nginx特性验证-反向代理/负载均衡/页面缓存/URL重定向

    原文发表于cu:2016-08-25 参考文档: Nginx 反向代理.负载均衡.页面缓存.URL重写等:http://freeloda.blog.51cto.com/2033581/1288553 ...

  8. 反向代理负载均衡-----nginx

    一:集群 1.1:集群的概念    集群是一组相互独立的.通过高速网络互联的计算机,他们构成了一个组,并以单一系统的模式加以管理.一个客户与集群相互作用时,集群像是一个独立的服务器.集群配置是用于提高 ...

  9. 反向代理负载均衡之nginx

    一.集群 1.1 什么是集群 集群是一组相互独立的.通过高速网络互联的计算机,它们构成了一个组,并以单一系统的模式加以管理.一个客户与集群相互作用时,集群像是一个独立的服务器.集群配置是用于提高可用性 ...

  10. 项目实战2.2—nginx 反向代理负载均衡、动静分离和缓存的实现

    实验一:实现反向代理负载均衡且动静分离 1.环境准备: 机器名称 IP配置 服务角色 备注 nginx VIP:172.17.11.11 反向代理服务器 开启代理功能 设置监控,调度 rs01 RIP ...

随机推荐

  1. HCL实验:4.同一vlan位于不同交换机上的通信

    拓扑图 SW1配置 SW2配置 SW3配置 VLAN 1 PC1 PING PC5 VLAN 2 PC 2 PING PC 6 VLAN 3 PC4 PING PC8 怀疑是模拟器的问题---- 不知 ...

  2. Github秒变VSCode在线编辑器

    在仓库页面 在网页地址中github后面加上 1s 即可

  3. JAVA代码下载TXT文件(本地和服务器上的代码都可以)

    // 读取服务器文件内容(TXT文件测试可以) public static List<String> showTxt(String filePath) throws IOException ...

  4. Java扩展Nginx之六:两大filter

    欢迎访问我的GitHub 这里分类和汇总了欣宸的全部原创(含配套源码):https://github.com/zq2599/blog_demos 本篇概览 本文是<Java扩展Nginx> ...

  5. Blazor前后端框架Known-V1.2.5

    V1.2.5 Known是基于C#和Blazor开发的前后端分离快速开发框架,开箱即用,跨平台,一处代码,多处运行. Gitee: https://gitee.com/known/Known Gith ...

  6. Smali语言

    什么是Smali smali语言是Davlik的寄存器语言,语法上和汇编语言相似,DalvikVM与JVM的最大的区别之一就是DalvikVM是基于寄存器的.基于寄存器的意思是,在smali里的所有操 ...

  7. 学习 HBase

    1 由来 HBase 应大数据而生,是Apache Hadoop项目孵化而来的一种NoSQL数据库,HBase 是 Hadoop Database 的简称. 它的出现有以下几个原因: 大数据时代的到来 ...

  8. Power AutoMate: 变量专栏

    背景 本篇对Power AutoMate的变量功能进行记录与讲解 设置变量 拖拽功能块并赋值 测试一些数据类型 测试中发现与程序中的类型,并没有什么差别 截断数字 对浮点数进行一些操作 选择需要操作的 ...

  9. javascript报错: TypeError: (0 , _api_music.default) is not a function

    报错截图 错误原因 从其他文件引入变量时,未添加花括号 错误写法 解决方案 效果图 至此问题解决

  10. word中查找替换不能使用 解决方案

    打开查找,然后点更多,最下面点不限定格式