nginx---详解

萧越泽
2023-12-01

1.nginx的介绍

nginx能做什么?

  • 反向代理
  • 负载均衡
  • 动静分离

基本介绍

Nginx (“engine x”)是一个高性能的HTTP和反向代理服务器,特点是占有内存少,并发能力强,事实上ngimx的并发能力确实在同类型的网页服务器中表现较好
Nginx,专为性能优化而开发,性能是其最重要的考量,实现上非常注重效率﹐能经受高负载的考验,有报告表明能支持高达50, 000个并发连接数。

正向代理和反向代理

  • 正向代理

    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Bv08XBKu-1636426944518)(https://static01.imgkr.com/temp/abc595b9252f449eb3b5b2031242c5ec.png)]

    就是访问其他服务器的时候,我们需要经过配置来访问中间经过的一个中转服务器,这个中转服务器就被称为正向代理服务器。这个过程就被成为正向代理。

    正向代理服务器只是给客户端提供了一个访问的方式,用户通过正向代理是可以直接访问想访问的服务器地址的。

  • 反向代理

    [外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-aN2Eowbg-1636426944520)(https://static01.imgkr.com/temp/d6190c31d302490ebebc95356d6b0898.png)]

    反向代理更像是一种防御机制,在反向代理的过程中,客户端无法知道真正访问的服务器的地址,而是把反向代理服务器和真正服务器相结合,用户只能访问反向代理服务器的地址,从而隐藏了真正的服务器。

负载均衡

我们先来看看我们传统的服务模式:

客户端发送多个请求到服务器,服务器处理请求,有一些可能要与数据库进行交互服务器处理完毕后,再将结果返回给客户端。

这就是一个简单的请求和响应。

这种架构模式对于早期的系统相对单一,并发请求相对较少的情况下是比较适合的,成本也低。但是随着信息数量的不断增长,访问量和数据量的飞速增长,以及系统业务的复杂度增加,这种架构会造成服务器相应客户端的请求日益缓慢,并发量特别大的时候,还容易造成服务器直接崩溃。很明显这是由于服务器性能的瓶颈造成的问题。

那么如何解决这种情况呢?,

我们首先想到的可能是升级服务器的配置,比如提高CPU执行频率,加大内存等提高机器的物理性能来解决此问题,但是我们知道摩尔定律的日益失效,硬件的性能提升已经不能满足日益提升的需求了。最明显的一个例子,天猫双十一当天,某个热销商品的瞬时访问量是极其庞大的,那么类似上面的系统架构,将机器都增加到现有的顶级物理配置,都是不能够满足需求的。那么怎么办呢?

单个服务器解决不了,我们增加服务器的数量,然后将请求分发到各个服务器上,将原先请求集中到单个服务器上的情况改为将请求分发到多个服务器上,将负载分发到不同的服务器,也就是我们所说的负载均衡

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-GSGO6qwY-1636426944523)(https://static01.imgkr.com/temp/cb4fd828e23f4a99bc848c7384ff453a.png)]

动静分离

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-6apnTVK3-1636426944525)(https://static01.imgkr.com/temp/c7638427f99f441c997d7750a9a17e2f.png)]

2.nginx安装和配置

安装:

安装pcre

wget http://downloads.sourceforge.net/project/pcre/pcre/8.37/pcre-8.37.tar.gz 
#解压
[root@iZ2ze29rhqm407x9o7zfkpZ ~]# tar -xvf pcre-8.37.tar.gz 
pcre-8.37/
pcre-8.37/pcre_scanner.h
-*******************
pcre-8.37/pcre32_ucd.c
pcre-8.37/makevp_l.txt
[root@iZ2ze29rhqm407x9o7zfkpZ ~]# cd pcre-8.37
[root@iZ2ze29rhqm407x9o7zfkpZ pcre-8.37]# ./configure
******
[root@iZ2ze29rhqm407x9o7zfkpZ pcre-8.37]# make && make install
[root@iZ2ze29rhqm407x9o7zfkpZ pcre-8.37]#  yum -y install make zlib zlib-devel gcc-c++ libtool openssl openssl-devel

安装nginx

去官网下包:http://nginx.org/

[root@iZ2ze29rhqm407x9o7zfkpZ ~]# tar -xvf nginx-1.12.2.tar.gz 
******
[root@k8snode2 nginx-1.12.2]# ./configure
。。。。。。。
[root@k8snode1 nginx-1.12.2]# make && make install

启动nginx

#进到这个目录(nginx为我们默认生成的)
cd /usr/local/nginx/sbin
[root@iZ2ze29rhqm407x9o7zfkpZ nginx-1.12.2]# cd /usr/local/nginx/sbin	
[root@iZ2ze29rhqm407x9o7zfkpZ sbin]# ./nginx 

[root@iZ2ze29rhqm407x9o7zfkpZ sbin]# ps -ef|grep nginx
root       733 21926  0 19:03 pts/1    00:00:00 grep --color=auto nginx
root      1178     1  0 Oct05 ?        00:00:00 nginx: master process /www/server/nginx/sbin/nginx -c /www/server/nginx/conf/nginx.conf
www       1186  1178  0 Oct05 ?        00:00:00 nginx: worker process
www       1187  1178  0 Oct05 ?        00:00:06 nginx: cache manager process

#防火墙开放端口
查看开放的端口号
firewall-cmd --list-all
设置开放的端口号
    firewall-cmd --add-service=http –permanent
sudo firewall-cmd --add-port=80/tcp --permanent
重启防火墙
 firewall-cmd --reload 


3.nginx的常用命令

#前提:进入/usr/local/nginx/sbin

(1)启动命令
在/usr/local/nginx/sbin 目录下执行 ./nginx 
(2)关闭命令
在/usr/local/nginx/sbin 目录下执行 ./nginx -s stop 	 
(3)重新加载命令
在/usr/local/nginx/sbin 目录下执行 ./nginx -s reload
(4)查看版本号
   nginx -v

4.nginx的配置文件

进入/usr/local/nginx/sbin,找到nginx.conf

4.1nginx.conf


worker_processes  1;




events {
    worker_connections  1024;
}



http {
    include       mime.types;
    default_type  application/octet-stream;



    sendfile        on;



    keepalive_timeout  65;



    server {
        listen       80;
        server_name  localhost;


        location / {
            root   html;
            index  index.html index.htm;
        }


        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }


    }



}

4.2配置文件介绍

我们可以很明显的将 nginx.conf 配置文件分为三部分

全局块

从配置文件开始到 events 块之间的内容,主要会设置一些影响 nginx 服务器整体运行的配置指令,主要包括配置运行 Nginx 服务器的用户(组)、允许生成的 worker process 数,进程 PID 存放路径、日志存放路径和类型以及配置文件的引入等。

上文的全局块为

#user  nobody;
worker_processes  1;                                       #能够承受的并发量

#error_log  logs/error.log;
#error_log  logs/error.log  notice;
#error_log  logs/error.log  info;

#pid        logs/nginx.pid;

worker_processes 1; 这是 Nginx 服务器并发处理服务的关键配置,worker_processes 值越大,可以支持的并发处理量也越多,但是会受到硬件、软件等设备的制约

event块

events {
    worker_connections  1024;
}

events 块涉及的指令主要影响 Nginx 服务器与用户的网络连接,常用的设置包括是否开启对多 work process 下的网络连接进行序列化,是否允许同时接收多个网络连接,选取哪种事件驱动模型来处理连接请求,每个 word process 可以同时支持的最大连接数等。

上述例子就表示每个 work process 支持的最大连接数为 1024.

这部分的配置对 Nginx 的性能影响较大,在实际中应该灵活配置。

http块

http {
    include       mime.types;
    default_type  application/octet-stream;



    sendfile        on;



    keepalive_timeout  65;



    server {
        listen       80;
        server_name  localhost;


        location / {
            root   html;
            index  index.html index.htm;
        }


        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }

该块分为两个部分,server块和http

①、http 全局块

http 全局块配置的指令包括文件引入、MIME-TYPE 定义、日志自定义、连接超时时间、单链接请求数上限等。 java 课程系列

更多 Java –大数据 –前端 –python 人工智能资料下载,可访问百度:尚硅谷官网

②、server 块

这块和虚拟主机有密切关系,虚拟主机从用户角度看,和一台独立的硬件主机是完全一样的,该技术的产生是为了

节省互联网服务器硬件成本。

每个 http 块可以包括多个 server 块,而每个 server 块就相当于一个虚拟主机。

而每个 server 块也分为全局 server 块,以及可以同时包含多个 locaton 块。

1、全局 server 块

最常见的配置是本虚拟机主机的监听配置和本虚拟主机的名称或 IP 配置。

2、location 块

一个 server 块可以配置多个 location 块。

这块的主要作用是基于 Nginx 服务器接收到的请求字符串(例如 server_name/uri-string),对虚拟主机名称

(也可以是 IP 别名)之外的字符串(例如 前面的 /uri-string)进行匹配,对特定的请求进行处理。地址定向、数据缓

存和应答控制等功能,还有许多第三方模块的配置也在这里进行。

5.nginx配置反向代理

5.1.实例1,用一个端口访问另一个端口

实现效果,通过我们创建的域名来访问服务器里的tomcat,而不去暴露tomcat的真实域名。

我们先把准备好的tomcat放到服务器里

[root@iZ2ze29rhqm407x9o7zfkpZ ~]# tar -xvf apache-tomcat-7.0.70.tar.gz
apache-tomcat-7.0.70/bin/catalina.sh
apache-tomcat-7.0.70/bin/configtest.sh
apache-tomcat-7.0.70/bin/daemon.sh
apache-tomcat-7.0.70/webapps/host-manager/images/
apache-tomcat-7.0.70/webapps/manager/
apache-tomcat-7.0.70/webapps/manager/META-INF/
apache-tomcat-7.0.70/webapps/manager/WEB-INF/
apache-tomcat-7.0.70/webapps/manager/WEB-INF/jsp/
apache-tomcat-7.0.70/webapps/manager/images/
apache-tomcat-7.0.70/work/
apache-tomcat-7.0.70/LICENSE
apache-tomcat-7.0.70/NOTICE
apache-tomcat-7.0.70/RELEASE-NOTES
apache-tomcat-7.0.70/RUNNING.txt
apache-toogo.gif
apache-tomcat-7.0.70/webapps/docs/images/code.gif
apache-tomcat-7.0.70/webapps/docs/images/cors-flowchart.png
。。。。
apache-tomcat-7.0.70/we

[root@iZ2ze29rhqm407x9o7zfkpZ ~]# cd apache-tomcat-7.0.70
[root@iZ2ze29rhqm407x9o7zfkpZ apache-tomcat-7.0.70]# ls
bin  conf  lib  LICENSE  logs  NOTICE  RELEASE-NOTES  RUNNING.txt  temp  webapps  work
[root@iZ2ze29rhqm407x9o7zfkpZ apache-tomcat-7.0.70]# cd bin
[root@iZ2ze29rhqm407x9o7zfkpZ bin]# ls
bootstrap.jar  catalina-tasks.xml            configtest.bat  digest.bat        setclasspath.sh  startup.bat      tomcat-native.tar.gz  version.bat
catalina.bat   commons-daemon.jar            configtest.sh   digest.sh         shutdown.bat     startup.sh       tool-wrapper.bat      version.sh
catalina.sh    commons-daemon-native.tar.gz  daemon.sh       setclasspath.bat  shutdown.sh      tomcat-juli.jar  tool-wrapper.sh
[root@iZ2ze29rhqm407x9o7zfkpZ bin]# ./startup.sh 
Using CATALINA_BASE:   /root/apache-tomcat-7.0.70
Using CATALINA_HOME:   /root/apache-tomcat-7.0.70
Using CATALINA_TMPDIR: /root/apache-tomcat-7.0.70/temp
Using JRE_HOME:        /usr/java/jdk1.8.0_301-amd64
Using CLASSPATH:       /root/apache-tomcat-7.0.70/bin/bootstrap.jar:/root/apache-tomcat-7.0.70/bin/tomcat-juli.jar
Tomcat started.
#打开防火墙的端口
[root@iZ2ze29rhqm407x9o7zfkpZ bin]# firewall-cmd --list-all
You're performing an operation over default zone ('public'),
but your connections/interfaces are in zone 'docker' (see --get-active-zones)
You most likely need to use --zone=docker option.

public
  target: default
  icmp-block-inversion: no
  interfaces: 
  sources: 
  services: dhcpv6-client ssh
  ports: 20/tcp 21/tcp 22/tcp 80/tcp 8888/tcp 39000-40000/tcp 6379/tcp 6377/tcp 6380/tcp 6381/tcp 6382/tcp 8045/tcp
  protocols: 
  masquerade: no
  forward-ports: 
  source-ports: 
  icmp-blocks: 
  rich rules: 
	
[root@iZ2ze29rhqm407x9o7zfkpZ bin]# firewall-cmd --add-service=http –permanent
usage: see firewall-cmd man page
firewall-cmd: error: unrecognized arguments: –permanent
[root@iZ2ze29rhqm407x9o7zfkpZ bin]# sudo firewall-cmd --add-port=8080/tcp --permanent
You're performing an operation over default zone ('public'),
but your connections/interfaces are in zone 'docker' (see --get-active-zones)
You most likely need to use --zone=docker option.

success
[root@iZ2ze29rhqm407x9o7zfkpZ bin]#  firewall-cmd --reload 
success
[root@iZ2ze29rhqm407x9o7zfkpZ bin]# firewall-cmd --list-all
You're performing an operation over default zone ('public'),
but your connections/interfaces are in zone 'docker' (see --get-active-zones)
You most likely need to use --zone=docker option.

public
  target: default
  icmp-block-inversion: no
  interfaces: 
  sources: 
  services: dhcpv6-client ssh
  ports: 20/tcp 21/tcp 22/tcp 80/tcp 8888/tcp 39000-40000/tcp 6379/tcp 6377/tcp 6380/tcp 6381/tcp 6382/tcp 8045/tcp 8080/tcp
  protocols: 
  masquerade: no
  forward-ports: 
  source-ports: 
  icmp-blocks: 
  rich rules: 
	

我们要实现的效果如下:设置域名www.123.com,先在我们电脑上配置cdn(因为没有域名)然后在nginx里设置好对应映射,从而访问tomcat

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-HP2PW9J0-1636426944527)(https://static01.imgkr.com/temp/b1c293b3b8c947cdbfea04910e782a21.png)]

#去C:\Windows\System32\drivers\etc 找host文件
ip(服务器的) www.123.com   #加进去


#配置反向代理:我们更改下上面server里的配置
 listen       80;
        server_name  你刚才填的ip;


        location / {
            root   html;
            proxy_pass http://127.0.0.1:8080
            index  index.html index.htm;
        }
        
#这样访问www.123.com的时候就会默认访问你设置的ip,从而进入到nginx的映射的页面里(http://127.0.0.1:8080)

5.2 实例二–用一个ip访问另一个ip

我们创建两个tomcat,保证有两个ip可以供我们访问。

访问http://ip:9001/test1/直接跳转到127.0.0.1:8080.
访问http://ip:9001/test2/直接跳转到127.0.0.1:8081.

拿出准备好的tomcat,开放8080和8081,解压两个

[root@iZ2ze29rhqm407x9o7zfkpZ bin]# firewall-cmd --list-all
[root@iZ2ze29rhqm407x9o7zfkpZ bin]# firewall-cmd --add-service=http –permanent
[root@iZ2ze29rhqm407x9o7zfkpZ bin]# sudo firewall-cmd --add-port=8080/tcp --permanent
[root@iZ2ze29rhqm407x9o7zfkpZ bin]#  firewall-cmd --reload 

[root@iZ2ze29rhqm407x9o7zfkpZ ~]# tar -xvf apache-tomcat-7.0.70.tar.gz


#对于8080那个,直接启动就行
[root@iZ2ze29rhqm407x9o7zfkpZ ~]# cd tomcat-8080
-bash: cd: tomcat-8080: No such file or directory
[root@iZ2ze29rhqm407x9o7zfkpZ ~]# cd tomcat-8080.70/
[root@iZ2ze29rhqm407x9o7zfkpZ tomcat-8080.70]# ls
bin  conf  lib  LICENSE  logs  NOTICE  RELEASE-NOTES  RUNNING.txt  temp  webapps  work
[root@iZ2ze29rhqm407x9o7zfkpZ tomcat-8080.70]# cd bin/
[root@iZ2ze29rhqm407x9o7zfkpZ bin]# ls
bootstrap.jar  catalina-tasks.xml            configtest.bat  digest.bat        setclasspath.sh  startup.bat      tomcat-native.tar.gz  version.bat
catalina.bat   commons-daemon.jar            configtest.sh   digest.sh         shutdown.bat     startup.sh       tool-wrapper.bat      version.sh
catalina.sh    commons-daemon-native.tar.gz  daemon.sh       setclasspath.bat  shutdown.sh      tomcat-juli.jar  tool-wrapper.sh
[root@iZ2ze29rhqm407x9o7zfkpZ bin]# ./startup.sh 
Using CATALINA_BASE:   /root/tomcat-8080.70
Using CATALINA_HOME:   /root/tomcat-8080.70
Using CATALINA_TMPDIR: /root/tomcat-8080.70/temp
Using JRE_HOME:        /usr/java/jdk1.8.0_301-amd64
Using CLASSPATH:       /root/tomcat-8080.70/bin/bootstrap.jar:/root/tomcat-8080.70/bin/tomcat-juli.jar
Tomcat started.

#我们来更改8081的配置文件
<Server port="8005" shutdown="SHUTDOWN">

#改成

<Server port="8015" shutdown="SHUTDOWN">
#----------------------------------------------------------------------------------------------------------------------------------------
 <Connector port="8080" protocol="HTTP/1.1"
               connectionTimeout="20000"
               redirectPort="8443" />
#改成
 <Connector port="8081" protocol="HTTP/1.1"
               connectionTimeout="20000"
               redirectPort="8443" />  
               
#----------------------------------------------------------------------------------------------------------------------------------------  
<Connector port="8009" protocol="AJP/1.3" redirectPort="8443" />
#改成:
 <Connector port="8019" protocol="AJP/1.3" redirectPort="8443" />
#----------------------------------------------------------------------------------------------------------------------------------------
[root@iZ2ze29rhqm407x9o7zfkpZ bin]# cd ..
[root@iZ2ze29rhqm407x9o7zfkpZ tomcat-8080.70]# cd ..
[root@iZ2ze29rhqm407x9o7zfkpZ ~]# cd tomcat-8081
-bash: cd: tomcat-8081: No such file or directory
[root@iZ2ze29rhqm407x9o7zfkpZ ~]# cd tomcat-8081.70/
[root@iZ2ze29rhqm407x9o7zfkpZ tomcat-8081.70]# cd bin
[root@iZ2ze29rhqm407x9o7zfkpZ bin]# ls
bootstrap.jar  catalina-tasks.xml            configtest.bat  digest.bat        setclasspath.sh  startup.bat      tomcat-native.tar.gz  version.bat
catalina.bat   commons-daemon.jar            configtest.sh   digest.sh         shutdown.bat     startup.sh       tool-wrapper.bat      version.sh
catalina.sh    commons-daemon-native.tar.gz  daemon.sh       setclasspath.bat  shutdown.sh      tomcat-juli.jar  tool-wrapper.sh
[root@iZ2ze29rhqm407x9o7zfkpZ bin]# ./startup.sh 
Using CATALINA_BASE:   /root/tomcat-8081.70
Using CATALINA_HOME:   /root/tomcat-8081.70
Using CATALINA_TMPDIR: /root/tomcat-8081.70/temp
Using JRE_HOME:        /usr/java/jdk1.8.0_301-amd64
Using CLASSPATH:       /root/tomcat-8081.70/bin/bootstrap.jar:/root/tomcat-8081.70/bin/tomcat-juli.jar
Tomcat started.
[root@iZ2ze29rhqm407x9o7zfkpZ bin]# 

#在tomcat的webapps里分别创建test1文件夹 放入一个a.html

#具体配置
[root@iZ2ze29rhqm407x9o7zfkpZ bin]# cd usr/local/nginx
-bash: cd: usr/local/nginx: No such file or directory
[root@iZ2ze29rhqm407x9o7zfkpZ bin]# cd /usr/local/nginx
[root@iZ2ze29rhqm407x9o7zfkpZ nginx]# ls
client_body_temp  conf  fastcgi_temp  html  logs  proxy_temp  sbin  scgi_temp  uwsgi_temp
[root@iZ2ze29rhqm407x9o7zfkpZ nginx]# cd conf
[root@iZ2ze29rhqm407x9o7zfkpZ conf]# ls
fastcgi.conf          fastcgi_params          koi-utf  mime.types          nginx.conf          scgi_params          uwsgi_params          win-utf
fastcgi.conf.default  fastcgi_params.default  koi-win  mime.types.default  nginx.conf.default  scgi_params.default  uwsgi_params.default

#打开nginx.conf,找到一段注释,我们来改一下它

   # another virtual host using mix of IP-, name-, and port-based configuration
    #
    #server {
    #    listen       8000;
    #    listen       somename:8080;
    #    server_name  somename  alias  another.alias;

    #    location / {
    #        root   html;
    #        index  index.html index.htm;
    #    }
    #}
    
#改成下面的样子:此时127.0.0.1 =我们的ip
 server {
        listen       9001;
        server_name  ip(你的);

        location ~ /test1/ {
            proxy_pass http://127.0.0.1:8080;
    }

        location ~ /test2/ {
            proxy_pass http://ip:8081;
        }
    }

location 指令说明

1、= :用于不含正则表达式的 uri 前,要求请求字符串与 uri 严格匹配,如果匹配

成功,就停止继续向下搜索并立即处理该请求。

2、~:用于表示 uri 包含正则表达式,并且区分大小写。

3、~*:用于表示 uri 包含正则表达式,并且不区分大小写。

4、^~:用于不含正则表达式的 uri 前,要求 Nginx 服务器找到标识 uri 和请求字符串匹配度最高的 location 后,立即使用此 location 处理请求,而不再使用 location 块中的正则 uri 和请求字符串做匹配。

注意:如果 uri 包含正则表达式,则必须要有 ~ 或者 ~* 标识。

6.nginx实现负载均衡

我们要实现的目标:当我们用我们的ip访问/fuzai/a.html时,将这个平均分配到两个tomcat里执行。

#我们分别在8080tomcat和8081tomcat的webapps目录下建立fuizai这个文件夹 且写进去不同的a.html

#在nginx的配置里做出修改
#gzip  on;
    upstream myserver {
        server 60.205.188.34:8080;
        server 60.205.188.34:8081;
    }
    server {
        listen       8045;
        server_name  60.205.188.34;

        #charset koi8-r;

        #access_log  logs/host.access.log  main;

        location / {
            proxy_pass http://myserver;
            root   html;
            index  index.html index.htm;
        }

#重新启动,就实现了访问ip/fuzai/a.html 随机访问8080的和8081的
[root@iZ2ze29rhqm407x9o7zfkpZ sbin]# ./nginx -s stop
[root@iZ2ze29rhqm407x9o7zfkpZ sbin]# ./nginx


这样配置就实现通过访问8045端口来轮询访问8080和8081的效果,如果一个文件8080有,8081无在轮询策略下就是访问8080可以显示 ,8081不能

6.1.负载均衡的分配策略

轮询(默认)

每个请求按时间顺序逐一分配到不同的后端服务器,如果后端服务器 down 掉,能自动剔除。

weight(权重)

weight 代表权,重默认为 1,权重越高被分配的客户端越多

指定轮询几率,weight 和访问比率成正比,用于后端服务器性能不均的情况。

upstream server_pool{ 

server 192.168.5.21 weight=10; 

server 192.168.5.22 weight=10; 

}

ip_hash (每个用户固定一个服务器)

每个请求按访问 ip 的 hash 结果分配,这样每个访客固定访问一个后端服务器,可以解决 session 的问题。

例如:

upstream server_pool{ 

ip_hash; 

server 192.168.5.21:80; 

server 192.168.5.22:80; 

}

fair(哪个服务器响应请求快,就把用户分配给哪个)

按后端服务器的响应时间来分配请求,响应时间短的优先分配。

upstream server_pool{ 

server 192.168.5.21:80; 

server 192.168.5.22:80; 

fair; 

}

7.nginx配置动静分离

Nginx动静分离简单来说就是把动态跟静态请求分开,不能理解成只是单纯的把动态页面和静态页面物理分离。严格意义上说应该是动态请求跟静态请求分开,可以理解成使用NMsin.处理静态页面,Tomcat处理动态页面。

动静分离从目前实现角度来讲大致分为两种,

一种是纯粹把静态文件独立成单独的域名放在独立的服务器上,也是目前主流推崇的方案;

另外一种方法就是动态跟静态文件混合在一起发布,通过nginx来分开。通过location指定不同的后缀名实现不同的请求转发。通过expires参数设置,可以使浏览器缓存过期时间,减少与服务器之前的请求和流量。具体Expires定义:是给一个资源设定一个过期时间,也就是说无需去服务端验证,直接通过浏览器自身确认是否过期即可,所以不会产生额外的流量。此种方法非常适合不经常变动的资源。(如果经常更新的文件,不建议使用Expires来缓存),我这里设置3d,表示在这3天之内访问这个URL,发送一个请求,比对服务器该文件最后更新时间没有变化,则不会从服务器抓取,返回状态码304,如果有修改,则直接从服务器重新下载,返回状态码200。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-2bsPXGJn-1636426944528)(https://static01.imgkr.com/temp/4411f42394274c6987795faf54124ce8.png)]

解释如上图,动静分离指的就是nginx把动态的资源和静态的资源分离开,分别交给不同的服务器处理,提高效率。

准备工作

我们在服务器的总文件夹下建立data文件夹,在data文件夹里建立image文件夹和www文件夹,用于装静态资源。

然后将01.jpg放进image里,a.html放进www文件夹里。

我们要实现 动态资源交给tomcat处理,静态资源交给nginx访问data文件夹。

location /www/ {            
            root   /data/;
            index  index.html index.htm;
        }
        location /image/ {            
            root   /data/;  #不一定要在主目录里加data访问,也可以写在别的地方	
            autoindex    on; #列出当前文件夹里内容
        }

测试

ip/image/01.jpg

ip/www/a.html

8.nginx配置高可用集群

8.1.搭建及测试

上面我们讲述了负载均衡,就是当请求进入nginx时会依照一定的负载均衡测略来使用不同的服务器来回应请求。

那如果nginx宕机了,那整个链条将会不可用,此时该集群就不是高可用的,那么如何让nginx集群高可用呢?

这就要涉及到redis或者k8s的思想了----增加从机

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-V4D1uGKU-1636426944529)(https://static01.imgkr.com/temp/6c01d966317d47629c14d64261cdf7a3.png)]

为了实现这个,我们要用到一个软件keepalived,此时我们需要一个虚拟ip来统一两个nginx,主nginx挂了,从nginx就顶替这个虚拟ip

为此,我们需要两台服务器(虚拟机)

准备工作

  • 两台服务器
  • 两个nginx
  • 两个keepalived

前两项照旧:

安装keepalived

yum install keepalived –y

#查看是否安装
[root@k8snode2 sbin]# rpm -q -a keepalived
keepalived-1.3.5-19.el7.x86_64

#查看安装的位置
[root@k8snode2 sbin]# which keepalived.conf
/usr/bin/which: no keepalived.conf in (/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/root/bin)

[root@k8snode2 sbin]# find / -name keepalived.conf
/etc/keepalived/keepalived.conf

安装完毕后:

我们来进入/etc/keepalived/keepalived.conf更改它的配置文件

global_defs {
  notification_email {
    acassen@firewall.loc
    failover@firewall.loc
    sysadmin@firewall.loc
 }
 notification_email_from Alexandre.Cassen@firewall.loc
 smtp_server 192.168.17.129
 smtp_connect_timeout 30
 router_id LVS_DEVEL
}
vrrp_script chk_http_port {
  script "/usr/local/src/nginx_check.sh"
  interval 2 #(检测脚本执行的间隔)
  weight 2
}
vrrp_instance VI_1 { 
  state BACKUP # 备份服务器上将 MASTER 改为 BACKUP 
  interface ens33 //网卡
  virtual_router_id 51 # 主、备机的 virtual_router_id 必须相同
  priority 90 # 主、备机取不同的优先级,主机值较大,备份机值较小
  advert_int 1
  authentication {
    auth_type PASS
    auth_pass 1111
 }
 virtual_ipaddress {
   192.168.17.131 // VRRP H 虚拟地址
 } }

配置检测nginx是否死亡的脚本 /usr/local/src/nginx_check.sh

nginx_check.sh

#!/bin/bash
A=`ps -C nginx �Cno-header |wc -l`
if [ $A -eq 0 ];then
    /usr/local/nginx/sbin/nginx
    sleep 2
    if [ `ps -C nginx --no-header |wc -l` -eq 0 ];then
        killall keepalived
    fi
fi

启动/测试

[root@k8snode1 sbin]# ./nginx -s stop
nginx: [alert] kill(14412, 15) failed (3: No such process)
[root@k8snode1 sbin]# ./nginx
[root@k8snode1 sbin]# systemctl start keepalived.service
[root@k8snode1 sbin]# ps -ef|grep keepalived
root      15801      1  0 11:18 ?        00:00:00 /usr/sbin/keepalived -D
root      15802  15801  0 11:18 ?        00:00:00 /usr/sbin/keepalived -D
root      15805  15801  0 11:18 ?        00:00:00 /usr/sbin/keepalived -D
root      15918   2048  0 11:19 pts/0    00:00:00 grep --color=auto keepalived

  • 我们访问我们的虚拟ip

可以直接看到我们nginx页面

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-fAI4czrq-1636426944529)(https://static01.imgkr.com/temp/9d9ee3116608457d8ce6efbe2a1ea446.png)]

我们再来测试下把主服务器停止,看能不能访问

[root@k8snode1 sbin]# ./nginx -s stop
[root@k8snode1 sbin]# ps -ef|grep nginx
root      17605   2048  0 11:24 pts/0    00:00:00 grep --color=auto nginx
[root@k8snode1 sbin]# systemctl stop keepalived.service
[root@k8snode1 sbin]# ps -ef|grep keepalived
root      17724   2048  0 11:25 pts/0    00:00:00 grep --color=auto keepalived

刷新,我们发现还能访问

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-Fhth48jx-1636426944530)(https://static01.imgkr.com/temp/9d9ee3116608457d8ce6efbe2a1ea446.png)]

此时,已经自动切换成从服务器

这样nginx集群就搭建完成了!!

8.2.配置文件详解

#全局配置
global_defs {
  notification_email {
    acassen@firewall.loc
    failover@firewall.loc
    sysadmin@firewall.loc
 }
 notification_email_from Alexandre.Cassen@firewall.loc
 smtp_server 192.168.17.129
 smtp_connect_timeout 30
 router_id LVS_DEVEL  #你主机的名字   /etc/host里更改
}

#脚本配置
vrrp_script chk_http_port {
  script "/usr/local/src/nginx_check.sh"
  interval 2 #(检测脚本执行的间隔) 每隔两秒执行一次
  weight 2   #条件满足,减少当前机器的权重
}
vrrp_instance VI_1 {
  state BACKUP # 备份服务器上将 MASTER 改为 BACKUP 
  interface ens33 //网卡
  virtual_router_id 51 # 主、备机的 virtual_router_id 必须相同
  priority 90 # 主、备机取不同的优先级,主机值较大,备份机值较小
  advert_int 1
  authentication {
    auth_type PASS
    auth_pass 1111
 }
 
 #虚拟ip配置 
 virtual_ipaddress {
   192.168.17.50 // VRRP H 虚拟地址
 } }

9.nginx原理解析

  • master和worker

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-JqPfYC0o-1636426944531)(https://static01.imgkr.com/temp/a7e8bc15f7f14ca8bfe503cfe41ba317.png)]

nginx内部存在master进程和worker进程,类似于老板和员工的关系。

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-WWqNl6wq-1636426944531)(https://static01.imgkr.com/temp/e675691a9918415a8d88de635c50f8c6.png)]

当有客户端发送请求,nginx会把请求发给管理员,然后有多个worker抢着执行,nginx只能有一个master,但可以有多个worker。worker会抢夺请求送去tomcat里执行。

一个master和多个worker有好处

  • 可以使用热部署

    nginx -s reload
    

    此时一个做工作的worker仍然做工作,其他的负责热部署,nginx不用停止。然后该进程结束任务后再部署。

    且每个worker是独立进程,当有其中一个进程挂掉了,其他进程可以继续工作。nginx和redis都是io多路复用机制,所以要尽可能将它们部署到linux才能实现它们的功能

  • 设置多少worker合适?

    一般认为worker数等于cpu数是最合适的。

#设置 worker 数量。
worker_processes 4
#work 绑定 cpu(4 work 绑定 4cpu)。
worker_cpu_affinity 0001 0010 0100 1000
#work 绑定 cpu (4 work 绑定 8cpu 中的 4 个) 。
worker_cpu_affinity 0000001 00000010 00000100 00001000

worker的连接数

两个或者4个(根据资源是动态还是静态而定)

worker能支持的最大请求

第二个:nginx 有一个 master,有四个woker**,每个** woker 支持最大的连接数 1024**,支持的**

最大并发数是多少?

  • 普通的静态访问最大并发数是: worker_connections worker_processes /2*,**

  • 而如果是 HTTP 作 为反向代理来说,最大并发数量应该是 worker_connections *

worker_processes/4**。**

附录:nginx.conf

#user  nobody;
worker_processes  1;

#error_log  logs/error.log;
#error_log  logs/error.log  notice;
#error_log  logs/error.log  info;

#pid        logs/nginx.pid;


events {
    worker_connections  1024;
}


http {
    include       mime.types;
    default_type  application/octet-stream;

    #log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '
    #                  '$status $body_bytes_sent "$http_referer" '
    #                  '"$http_user_agent" "$http_x_forwarded_for"';

    #access_log  logs/access.log  main;

    sendfile        on;
    #tcp_nopush     on;

    #keepalive_timeout  0;
    keepalive_timeout  65;

    #gzip  on;
    upstream myserver {
        server 60.205.188.34:8080;
        server 60.205.188.34:8081;
    }
    server {
        listen       8045;
        server_name  60.205.188.34;

        #charset koi8-r;

        #access_log  logs/host.access.log  main;
        
    #负载均衡
    #    location / {
    #        proxy_pass http://myserver;
    #        root   html;
    #        index  index.html index.htm;
    #   }


    #动静分离的配置
        location /www/ {            
            root   /data/;
            index  index.html index.htm;
        }
        location /image/ {            
            root   /data/;
            autoindex    on;
        }
        #error_page  404              /404.html;

        # redirect server error pages to the static page /50x.html
        #
        error_page   500 502 503 504  /50x.html;
        location = /50x.html {
            root   html;
        }

        # proxy the PHP scripts to Apache listening on 127.0.0.1:80
        #
        #location ~ \.php$ {
        #    proxy_pass   http://127.0.0.1;
        #}

        # pass the PHP scripts to FastCGI server listening on 127.0.0.1:9000
        #
        #location ~ \.php$ {
        #    root           html;
        #    fastcgi_pass   127.0.0.1:9000;
        #    fastcgi_index  index.php;
        #    fastcgi_param  SCRIPT_FILENAME  /scripts$fastcgi_script_name;
        #    include        fastcgi_params;
        #}

        # deny access to .htaccess files, if Apache's document root
        # concurs with nginx's one
        #
        #location ~ /\.ht {
        #    deny  all;
        #}
    }


    # another virtual host using mix of IP-, name-, and port-based configuration
    
    #反向代理的配置
    server {
        listen       9001;
        server_name  60.205.188.34;

        location ~ /test1/ {
            proxy_pass http://127.0.0.1:8080;
    }

        location ~ /test2/ {
            proxy_pass http://60.205.188.34:8081;
        }
    }


    # HTTPS server
    #
    #server {
    #    listen       443 ssl;
    #    server_name  localhost;

    #    ssl_certificate      cert.pem;
    #    ssl_certificate_key  cert.key;

    #    ssl_session_cache    shared:SSL:1m;
    #    ssl_session_timeout  5m;

    #    ssl_ciphers  HIGH:!aNULL:!MD5;
    #    ssl_prefer_server_ciphers  on;

    #    location / {
    #        root   html;
    #        index  index.html index.htm;
    #    }
    #}

}

附录:keepalived.conf

global_defs {
  notification_email {
    acassen@firewall.loc
    failover@firewall.loc
    sysadmin@firewall.loc
 }
 notification_email_from Alexandre.Cassen@firewall.loc
 smtp_server 192.168.17.129
 smtp_connect_timeout 30
 router_id LVS_DEVEL
}
vrrp_script chk_http_port {
  script "/usr/local/src/nginx_check.sh"
  interval 2 #(检测脚本执行的间隔)
  weight 2
}
vrrp_instance VI_1 {
  state BACKUP # 备份服务器上将 MASTER 改为 BACKUP 
  interface ens33 //网卡
  virtual_router_id 51 # 主、备机的 virtual_router_id 必须相同
  priority 90 # 主、备机取不同的优先级,主机值较大,备份机值较小
  advert_int 1
  authentication {
    auth_type PASS
    auth_pass 1111
 }
 virtual_ipaddress {
   192.168.17.50 // VRRP H 虚拟地址
 } }
 类似资料: