nginx反向代理与负载均衡(nginx的正向代理和反向代理)

什么是nginx?

总结送学习资料(包含视频、技术学习路线图谱、文档等)

Nginx (engine x) 是一个高性能的HTTP和反向代理web服务器…

除了反向代理,nginx还支持正向代理、负载均衡以及基于SSL安全证书的HTTPS访问等功能特性~
本文主要是介绍是如何配置nginx正向代理、反向代理及负载均衡,进入正文~

反向代理:看下面原理图,就一目了然。其实客户端对代理是无感知的,因为客户端不需要任何配置就可以访问,我们只需要将请求发送到反向代理服务器,由反向代理服务器去选择目标服务器获取数据后,在返回给客户端,此时反向代理服务器和目标服务器对外就是一个服务器,暴露的是代理服务器地址,隐藏了真实服务器 IP地址。

一、代理服务

什么是代理?来一张图了解下

 

nginx反向代理与负载均衡(nginx的正向代理和反向代理)

代理又分为正向代理和反向代理。

二、正向代理

1.1 什么是正向代理?

先来看张图~

nginx反向代理与负载均衡(nginx的正向代理和反向代理)

正向代理和反向代理的区别,一句话就是:如果我们客户端自己用,就是正向代理。如果是在服务器用,用户无感知,就是反向代理。

2.Nginx配置文件

在学习 Nginx之前,要熟知它的配置文件,毕竟,下面需要做的所有配置(反向代理、负载均衡、动静分离等),都是基于它的配置文件。

Nginx默认的配置文件是在安装目录下的 conf目录下,后续对 Nginx的使用基本上都是对此配置文件进行相应的修改。完整的配置文件,可以看一下文章最后。修改过nginx.conf配置文件,记得要重启Nginx服务(☆☆☆☆☆)

配置文件中有很多#号,该符号表示注释内容,去掉所有以 #开头的段落,精简之后的配置文件内容如下(PS:其实注释掉的地方,都是一些功能的使用代码,需要用到的时候,取消注释即可):

# 主进程叫master,负责管理子进程,子进程叫worker# worker_processes配置项表示开启几个业务进程,一般和cpu核数有关worker_processes  1;events {    worker_connections  1024;}http {# include表示可以引入其他文件,此处表示引入http mime类型    include       mime.types;    default_type  application/octet-stream;    sendfile        on;    keepalive_timeout  65;# 虚拟主机,可以配置多个    server {        listen       80;        server_name  localhost;        location / {        # 路径匹配之后,哪个目录下去匹配相应的网页,html是相对路径            root   html;            index  index.html index.htm;        }        error_page   500 502 503 504  /50x.html;        location = /50x.html {            root   html;        }}

去掉注释信息后,可以将 nginx.conf 配置文件分为三部分:

2.1 第一部分:全局块

 worker_processes  1;

从配置文件开始到events块之间的内容,主要会设置一些影响Nginx服务器整体运行的配置指令,主要包括:配置运行Nginx服务器的用户(组)、允许生成的 worker process 数,进程PID存放路径、日志存放路径和类型以及配置文件的引入等。

上面这行 worker_processes 配置,是 Nginx 服务器是并发处理服务的关键配置,该值越大,可以支持的并发处理量也越多,但是会受到硬件、软件等设备的约束。

2.2 第二部分:events 块

events {worker_connections  1024;}

events 块涉及的指令主要影响Nginx服务器与用户的网络连接,常用的设置包括:是否开启对多 work process下的网络连接进行序列化,是否允许同时接收多个网络连接,选取哪种事件驱动模型来处理连接请求,每个 work process 可以同时支持最大连接数等

上述例子就表示每个 work process 支持的最大连接数为 1024。这部分的配置对Nginx的性能影响较大,在实际中应该灵活配置。

2.3 第三部分:http 块

http {    include       mime.types;    default_type  application/octet-stream;    sendfile        on;    keepalive_timeout  65;    server {        listen       80;        server_name  localhost;        location / {            root   html;            index  index.html index.htm;        }        error_page   500 502 503 504  /50x.html;        location = /50x.html {            root   html;    }}

这部分是 Nginx 服务器配置中最频繁的部分,代理、缓存和日志定义等绝大多数功能和第三方模块的配置都在这里。需要注意的是:http 块也可以包括 http 全局块、server 块。下面的反向代理、动静分离、负载均衡都是在这部分中配置的

http 全局块:http 全局块配置的指令包括:文件引入、MIME-TYPE 定义、日志自定义、连接超时时间、单链接请求数上限等。

server 块:这块和虚拟主机有密切关系,从用户角度看,虚拟主机和一台独立的硬件主机是完全一样的,该技术的产生是为了节省互联网服务器硬件成本。

每个http块可以包括多个server块,而每个server块就相当于一个虚拟主机。而每个server块也分为全局server块,以及可以同时包含多个locaton块。(☆☆☆☆☆)

2.3.1 全局 server 块

最常见的配置是本虚拟机主机的监听配置和本虚拟主机的名称或IP配置。

2.3.2 location 块

一个 server 块可以配置多个 location 块。

这块的主要作用是:基于 Nginx 服务器接收到的请求字符串(例如 server_name/uri-string),对虚拟主机名称(也可以是 IP 别名)之外的字符串(例如 前面的 /uri-string)进行匹配,对特定的请求进行处理。地址定向、数据缓存和应答控制等功能,还有许多第三方模块的配置也在这里进行。

http {    include       mime.types;    default_type  application/octet-stream;    sendfile        on;    keepalive_timeout  65;    server {        listen       80;        server_name  localhost;        # 若请求路径像这样:www.xxxx/img/example.png        # 则访问/img/目录下的文件时,nginx会去/var/www/image/img/目录下找文件        location /img/ {            root /var/www/image;        }        error_page   500 502 503 504  /50x.html;        location = /50x.html {            root   html;    }}

3. 反向代理如何配置

3.1 反向代理实例一

实现效果:使用 Nginx 反向代理,访问www.123.com直接跳转到127.0.0.1:8080

注意:此处如果要想从www.123.com跳转到本机指定的ip,需要修改本机的hosts文件。此处略过

配置代码

nginx反向代理与负载均衡(nginx的正向代理和反向代理)

如上配置,Nginx监听 80端口,访问域名为www.123.com(不加端口号时默认为 80端口),故访问该域名时会跳转到 127.0.0.1:8080 路径上。

此处的意思为:nginx 反向代理服务监听 192.168.17.129的80端口,如果有请求过来,则转到proxy_pass配置的对应服务器上,仅此而已。

在location下,同时配置root和proxy_pass选项时,两个选项只会二选一执行

此处不能配置https反向代理

实验结果:

 

nginx反向代理与负载均衡(nginx的正向代理和反向代理)

3.2 反向代理实例二

实现效果:使用 Nginx 反向代理,根据访问的路径跳转到不同端口的服务中,Nginx 监听端口为 9001

访问http://192.168.17.129/edu/直接跳转到 127.0.0.1:8080

访问http://192.168.17.129/vod/直接跳转到 127.0.0.1:8081

第一步,需要准备两个 tomcat,一个 8080 端口,一个 8081 端口,并准备好测试的页面

第二步,修改 nginx 的配置文件,在 http 块中配置 server

 

nginx反向代理与负载均衡(nginx的正向代理和反向代理)

根据上面的配置,当请求到达 Nginx 反向代理服务器时,会根据请求路径不同进行分发到不同的服务上。

实验结果:

 

nginx反向代理与负载均衡(nginx的正向代理和反向代理)

补充:location 指令说明

该指令用于匹配 URL, 语法如下:

location [ = | ~ | ~* | ^~] uri {}

= :用于不含正则表达式的 uri 前,要求请求字符串与 uri 严格匹配,如果匹配成功,就停止继续向下搜索并立即处理该请求

~:用于表示 uri 包含正则表达式,并且区分大小写

~*:用于表示 uri 包含正则表达式,并且不区分大小写

^~:用于不含正则表达式的 uri 前,要求 Nginx 服务器找到标识 uri 和请求。字符串匹配度最高的 location 后,立即使用此 location 处理请求,而不再使用 location块中的正则 uri 和请求字符串做匹配。

注意:如果 uri 包含正则表达式,则必须要有 ~ 或者 ~* 标识

Nginx完整配置文件

#user  nobody;worker_processes  1;#error_log  logs/error.log;#error_log  logs/error.log  notice;#error_log  logs/error.log  info;#pid        logs/nginx.pid;events {    worker_connections  1024;}http {    include       mime.types;    default_type  application/octet-stream;    #log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '    #                  '$status $body_bytes_sent "$http_referer" '    #                  '"$http_user_agent" "$http_x_forwarded_for"';    #access_log  logs/access.log  main;    sendfile        on;    #tcp_nopush     on;    #keepalive_timeout  0;    keepalive_timeout  65;    #gzip  on;    server {        listen       80;        server_name  localhost;        #charset koi8-r;        #access_log  logs/host.access.log  main;        location / {            root   html;            index  index.html index.htm;        }        #error_page  404              /404.html;        # redirect server error pages to the static page /50x.html        #        error_page   500 502 503 504  /50x.html;        location = /50x.html {            root   html;        }        # proxy the PHP scripts to Apache listening on 127.0.0.1:80        #        #location ~ .php$ {        #    proxy_pass   http://127.0.0.1;        #}        # pass the PHP scripts to FastCGI server listening on 127.0.0.1:9000        #        #location ~ .php$ {        #    root           html;        #    fastcgi_pass   127.0.0.1:9000;        #    fastcgi_index  index.php;        #    fastcgi_param  SCRIPT_FILENAME  /scripts$fastcgi_script_name;        #    include        fastcgi_params;        #}        # deny access to .htaccess files, if Apache's document root        # concurs with nginx's one        #        #location ~ /.ht {        #    deny  all;        #}    }    # another virtual host using mix of IP-, name-, and port-based configuration    #    #server {    #    listen       8000;    #    listen       somename:8080;    #    server_name  somename  alias  another.alias;    #    location / {    #        root   html;    #        index  index.html index.htm;    #    }    #}    # HTTPS server    #    #server {    #    listen       443 ssl;    #    server_name  localhost;    #    ssl_certificate      cert.pem;    #    ssl_certificate_key  cert.key;    #    ssl_session_cache    shared:SSL:1m;    #    ssl_session_timeout  5m;    #    ssl_ciphers  HIGH:!aNULL:!MD5;    #    ssl_prefer_server_ciphers  on;    #    location / {    #        root   html;    #        index  index.html index.htm;    #    }    #}}

总结;

学习推荐;C/C++Linux服务器开发/后台架构师【零声教育】-学习视频教程-腾讯课堂

nginx反向代理与负载均衡(nginx的正向代理和反向代理)

Linux 线程池的概念与实现

2022-07-11 21:38·Linux特训营

应用场景:

1、需要大量的线程来完成任务,且完成任务的时间比较短;

2、对性能要求苛刻的应用;

3、接受突发性的大量请求,但不至于使服务器因此产生大量线程的应用

不使用线程池的情况:若是一个数据请求的到来伴随一个线程去创建,就会产生一定的风险以及一些不必要的消耗。

1、线程若不限制数量的创建,在峰值压力下,线程创建过多,资源耗尽,有程序崩溃的风险;

2、处理一个短时间任务时,会有大量的资源用于线程的创建与销毁成本上。

功能:线程池是使用了已经创建好的线程进行循环处理任务,避免了大量线程的频繁创建与销毁的时间成本

如何实现一个线程池

线程池 = 大量线程 + 任务缓冲队列

困难与解决方案:在创建线程时,都是伴随创建线程的入口函数,一旦创建就无法改变,导致线程池进行任务处理的方式过于单一,灵活性太差。若任务队列中的任务,不仅仅是单纯的数据,而是包含处理任务方法在内的数据,这时候,线程池的线程是一条普通的执行流,只需要使用传入的方法去处理数据即可。这样子就可以提高线程池的灵活性

nginx反向代理与负载均衡(nginx的正向代理和反向代理)

代码实现流程:定义一个任务类Task,成员变量有要处理的数据_data和处理数据的方法_handler。成员函数有设置要处理数据和处理方式的函数setTask,还有一个处开始处理数据的函数run(创建线程时传入的方法,由于创建线程必须有入口函数,这里用run封装所有的处理方式,让所有线程都将run置为入口函数,就提高了线程池的灵活性)。再定义一个线程池类ThreadPool,成员变量有定义线程池中线程的最大数量thr_max,一个任务缓冲队列_queue,一个互斥量_mutex,用于实现对缓冲队列的安全性,一个条件变量_cond,用于实现线程池中线程的同步。

threadpool.hpp文件

//threadpool.hpp#include <iostream>#include <cstdio>#include <queue>#include <stdlib.h>#include <pthread.h>using namespace std;typedef void (*handler_t)(int);#define MAX_THREAD 5

//任务类

class ThreadTask{    public:        ThreadTask()        {        }、

//将数据与处理方式打包在一起

        void setTask(int data, handler_t handler)        {            _data = data;            _handler = handler;        }        //执行任务函数
        void run()        {            return _handler(_data);        }    private:        int _data;

//任务中处理的数据

        handler_t _handler;//

处理任务方式};//线程池类

class ThreadPool{    public:        ThreadPool(int thr_max = MAX_THREAD)            :_thr_max(thr_max)        {            pthread_mutex_init(&_mutex, NULL);            pthread_cond_init(&_cond, NULL);            for (int i = 0; i < _thr_max; i++)            {                pthread_t tid;                int ret = pthread_create(&tid, NULL, thr_start, this);                if (ret != 0)                {                    printf("thread create errorn");                    exit(-1);                }            }        }        ~ThreadPool()        {            pthread_mutex_destroy(&_mutex);            pthread_cond_destroy(&_cond);        }        bool taskPush(ThreadTask &task)        {            pthread_mutex_lock(&_mutex);            _queue.push(task);            pthread_mutex_unlock(&_mutex);            pthread_cond_signal(&_cond);            return true;        }        //

类的成员函数,有默认的隐藏参数this指针

        //

置为static,没有this指针,

        static void *thr_start(void *arg)        {            ThreadPool *p = (ThreadPool*)arg;            while (1)            {                pthread_mutex_lock(&p->_mutex);                while (p->_queue.empty())                {                    pthread_cond_wait(&p->_cond, &p->_mutex);                }                ThreadTask task;                task =p-> _queue.front();                p->_queue.pop();                pthread_mutex_unlock(&p->_mutex);                task.run();//

任务的处理要放在解锁之外

            }            return NULL;        }    private:        int _thr_max;//

线程池中线程的最大数量

        queue<ThreadTask> _queue;//

任务缓冲队列

        pthread_mutex_t _mutex; //

保护队列操作的互斥量

        pthread_cond_t _cond; //

实现从队列中获取结点的同步条件变量

};

main.cpp

//main.cpp#include <unistd.h>#include "threadpool.hpp"

//处理方法1

void test_func(int data){int sec = (data % 3) +1;printf("tid:%p -- get data:%d, sleep:%dn", pthread_self(), data, sec);sleep(sec);}

//处理方法2

void tmp_func(int data){printf("tid:%p -- tmp_funcn", pthread_self());sleep(1);}int main(){ThreadPool pool;for (int i = 0; i < 10; i++){ThreadTask task;if (i % 2 == 0){task.setTask(i, test_func);}else{task.setTask(i, tmp_func);}pool.taskPush(task);}sleep(1000);return 0;}

运行结果:线程池最多有5个线程,标注的每种颜色对应的是同一个线程,这样子就能完成通过几个线程,完成多个任务,而不是多个线程完成多个任务。创建和销毁的时间开销也节省了不少

nginx反向代理与负载均衡(nginx的正向代理和反向代理)

总结;

文章知识点与官方知识档案匹配,可进一步学习相关知识

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

发表评论

登录后才能评论