百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术资源 > 正文

Nginx负载均衡最全详解(4大算法原理机制)

off999 2025-02-15 16:58 84 浏览 0 评论

Nginx在大型网站架构很重要,也是大厂重点考察方向,今天我就重点来详解Nginx负载均衡@mikechen

本篇已收于mikechen原创超30万字《阿里架构师进阶专题合集》里面。

Nginx负载均衡

Nginx负载均衡能够将客户端请求,分发到多个后端服务器(比如:应用1、应用2...应用N服务器),从而分散负载,提升应用的可用性、和性能。

如下图所示:

Nginx负载均衡,通过横向扩展,不仅可以添加、或移除后端服务器,以应对流量变化,实现动态扩展。

除此之外,负载均衡器可以作为系统的第一道防线,通过过滤和分发流量,帮助防御攻击...等等。

还可以,通过将请求分发到多个服务器上,从而,避免了Nginx 单点故障,还可以提高了系统的可靠性、和可用性。

Nginx负载均衡算法

Nginx 提供了多种“负载均衡算法”,经常使用的包括:随机、轮询、权重...等模式,下面我分别来详解原理与使用@mikechen

1、轮循(默认)

这是默认的Nginx负载均衡算法,Nginx 将请求按顺序轮流分配给每个后端服务器,如下图所示:

轮询算法的工作原理非常简单:

  • 负载均衡器维护一个后端服务器列表,并在其中循环遍历;
  • 每当有新的请求到来时,负载均衡器按顺序选择列表中的下一个服务器进行分发;
  • 当遍历到列表的末尾时,重新回到列表的起点,继续按顺序分配请求。

配置轮询算法非常简单,只需要在配置文件中定义上游服务器列表即可。

如下所示:

http {
    upstream myapp {
        server backend1.example.com;
        server backend2.example.com;
        server backend3.example.com;
    }

    server {
        listen 80;

        location / {
            proxy_pass http://myapp;
            proxy_set_header Host $host;
            proxy_set_header X-Real-IP $remote_addr;
            proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
            proxy_set_header X-Forwarded-Proto $scheme;
        }
    }
}

轮询:适用于大多数基本负载均衡需求,但是,当应用场景复杂,需要考虑服务器负载时,可以选择,比如:加权轮询、最少连接数等。

2.加权轮询

加权轮询是一种改进的轮询算法,主要作用是:根据后端服务器的处理能力(权重)来分配请求。

如下图所示:

加权轮询的工作原理如下:

每个后端服务器分配一个权重值(weight),权重值越高,服务器处理的请求数量越多;

例如:权重值为“3”的服务器,接收到的请求次数,将是权重值为1的服务器的三倍。

配置如下:

http {
    upstream myapp {
        server backend1.example.com weight=3;
        server backend2.example.com weight=2;
        server backend3.example.com weight=1;
    }

    server {
        listen 80;

        location / {
            proxy_pass http://myapp;
            proxy_set_header Host $host;
            proxy_set_header X-Real-IP $remote_addr;
            proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
            proxy_set_header X-Forwarded-Proto $scheme;
        }
    }
}

具体来说,backend1.example.com 接收到的请求数量,将是 backend3.example.com 的三倍。

这种算法适用于:后端服务器性能不一致的情况。

通过加权分配,使得处理能力更强的服务器承担更多的请求,从而优化整体系统性能、和资源利用。

3.ip_hash模式

IP哈希负载均衡算法,主要作用是:基于客户端IP地址的哈希值将请求分配给后端服务器。

如下图所示:

此算法的主要优点在于:它能够实现会话保持(Session Persistence),即确保来自同一客户端的所有请求,都分配到同一个后端服务器。

这种方式保证了会话的连续性,即同一客户端的所有请求,都能访问同一个后端服务器。

配置,如下所示:

http {
    upstream myapp {
        ip_hash;
        server backend1.example.com;
        server backend2.example.com;
        server backend3.example.com;
    }

    server {
        listen 80;

        location / {
            proxy_pass http://myapp;
            proxy_set_header Host $host;
            proxy_set_header X-Real-IP $remote_addr;
            proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
            proxy_set_header X-Forwarded-Proto $scheme;
        }
    }
}

这种方式,适用于:需要保持用户状态、或会话信息的一些应用,比如:购物车、支付...等。

但是也要注意:如果某台服务器宕机,负载均衡器需要重新计算哈希值,将请求分配到其他服务器,因此,健康检查机制非常重要。

4、最少连接

最少连接数(Least Connections),主要作用是:将新的请求分配给当前活动连接数最少的后端服务器。

如下图所示:

配置如下:

http {
    upstream myapp {
        least_conn;
        server backend1.example.com;
        server backend2.example.com;
        server backend3.example.com;
    }

    server {
        listen 80;

        location / {
            proxy_pass http://myapp;
            proxy_set_header Host $host;
            proxy_set_header X-Real-IP $remote_addr;
            proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
            proxy_set_header X-Forwarded-Proto $scheme;
        }
    }
}

最少连接数算法:能够有效避免某些服务器过载。

能够根据实际负载情况动态调整请求分配,适用于请求处理时间不一致的场景。

本篇已收于mikechen原创超30万字《阿里架构师进阶专题合集》里面。

相关推荐

在NAS实现直链访问_如何访问nas存储数据

平常在使用IPTV或者TVBOX时,经常自己会自定义一些源。如何直链的方式引用这些自定义的源呢?本人基于armbian和CasaOS来创作。使用标准的Web服务器(如Nginx或Apache...

PHP开发者必备的Linux权限核心指南

本文旨在帮助PHP开发者彻底理解并解决在Linux服务器上部署应用时遇到的权限问题(如Permissiondenied)。核心在于理解“哪个用户(进程)在访问哪个文件(目录)”。一、核心...

【Linux高手必修课】吃透sed命令!文本手术刀让你秒变运维大神!

为什么说sed是Linux运维的"核武器"?想象你有10万个配置文件需要批量修改?传统方式要写10万行脚本?sed一个命令就能搞定!这正是运维工程师的"暴力美学"时...

「实战」docker-compose 编排 多个docker 组成一个集群并做负载

本文目标docker-compose,对springboot应用进行一个集群(2个docker,多个类似,只要在docker-compose.yml再加boot应用的服务即可)发布的过程架构...

企业安全访问网关:ZeroNews反向代理

“我们需要让外包团队访问测试环境,但不想让他们看到我们的财务系统。”“审计要求我们必须记录所有第三方对内部系统的访问,现在的VPN日志一团糟。”“每次有新员工入职或合作伙伴接入,IT部门都要花半天时间...

反向代理以及其使用场景_反向代理实现过程

一、反向代理概念反向代理(ReverseProxy)是一种服务器配置,它将客户端的请求转发给内部的另一台或多台服务器处理,然后将响应返回给客户端。与正向代理(ForwardProxy)不同,正向代...

Nginx反向代理有多牛?一篇文章带你彻底搞懂!

你以为Nginx只是个简单的Web服务器?那可就大错特错了!这个看似普通的开源软件,实际上隐藏着惊人的能力。今天我们就来揭开它最强大的功能之一——反向代理的神秘面纱。反向代理到底是什么鬼?想象一下你...

Nginx反向代理最全详解(原理+应用+案例)

Nginx反向代理在大型网站有非常广泛的使用,下面我就重点来详解Nginx反向代理@mikechen文章来源:mikechen.cc正向代理要理解清楚反向代理,首先:你需要搞懂什么是正向代理。正向代理...

centos 生产环境安装 nginx,包含各种模块http3

企业级生产环境Nginx全模块构建的大部分功能,包括HTTP/2、HTTP/3、流媒体、SSL、缓存清理、负载均衡、DAV扩展、替换过滤、静态压缩等。下面我给出一个完整的生产环境安装流程(C...

Nginx的负载均衡方式有哪些?_nginx负载均衡机制

1.轮询(默认)2.加权轮询3.ip_hash4.least_conn5.fair(最小响应时间)--第三方6.url_hash--第三方...

Nginx百万并发优化:如何提升100倍性能!

关注△mikechen△,十余年BAT架构经验倾囊相授!大家好,我是mikechen。Nginx是大型架构的核心,下面我重点详解Nginx百万并发优化@mikechen文章来源:mikechen....

在 Red Hat Linux 上搭建高可用 Nginx + Keepalived 负载均衡集群

一、前言在现代生产环境中,负载均衡是确保系统高可用性和可扩展性的核心技术。Nginx作为轻量级高性能Web服务器,与Keepalived结合,可轻松实现高可用负载均衡集群(HA+LB...

云原生(十五) | Kubernetes 篇之深入了解 Pod

深入了解Pod一、什么是PodPod是一组(一个或多个)容器(docker容器)的集合(就像在豌豆荚中);这些容器共享存储、网络、以及怎样运行这些容器的声明。我们一般不直接创建Pod,而是...

云原生(十七) | Kubernetes 篇之深入了解 Deployment

深入了解Deployment一、什么是Deployment一个Deployment为Pods和ReplicaSets提供声明式的更新能力。你负责描述Deployment中的目标状...

深入理解令牌桶算法:实现分布式系统高效限流的秘籍

在高并发系统中,“限流”是保障服务稳定的核心手段——当请求量超过系统承载能力时,合理的限流策略能避免服务过载崩溃。令牌桶算法(TokenBucket)作为最经典的限流算法之一,既能控制请求的平...

取消回复欢迎 发表评论: