百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术资源 > 正文

使用nginx的负载均衡机制实现用户无感更新服务

off999 2025-02-15 16:59 31 浏览 0 评论


知识改变命运,撸码使我快乐,2020继续游走在开源界
点赞再看,养成习惯

前言

用户请求的转发是接口服务在部署时必须要做的一步。

请求转发的步骤大约分为如下几步:

  1. 域名解析到转发服务器
  2. 转发服务器会根据权重(weight)、备用(backup)配置转发到统一网关
  3. 如果统一网关存在灰度的配置,需要根据身份或者头信息过滤请求
  4. 转发到具体的业务服务

目前市面上优秀的 请求转发有很多种,比如: Nginx、 F5、 Kong、 Tengine等,其中 Tengine是阿里巴巴基于 Nginx进行封装,我们本章的内容基于 Nginx进行讲解,我们先来准备下 nginx的测试环境。

准备环境

如果你的测试环境没有安装 Nginx,下面我通过两种方式来说下具体的安装过程。

使用Brew安装Nginx

如果你是 OSX系统,可以直接使用 brew管理工具进行安装,这种方式比较简单,自动从远程服务器下载最新稳定的版本进行解压、配置环境等。

# 安装nginx?  ~ brew install nginx

静静等待~

安装完成后,我们先来修改下端口号(brew安装包把默认的监听端口号改为了 8080,一般在使用解压的方式安装时监听端口都是 80)。

我们需要先找到 nginx.conf这个文件的位置:

?  ~ sudo find / -name nginx.conf           /usr/local/etc/nginx/nginx.conf

找到文件后,我们通过 sudo
vi/usr/local/etc/nginx/nginx.conf命令来修改默认的端口号,位置如下:

server {        listen       80;        server_name  localhost;        #...}        

修改后保存退出。

最后不要忘记重启 Nginx服务。

?  ~ brew services restart nginx

解压包方式

首先去 nginx官方提供 http://nginx.org/download 的下载地址去挑选自己中意的版本,下面以 1.17.7版本示例:

  • http://nginx.org/download/nginx-1.17.7.tar.gz

点击下载完成后解压安装即可(注意编译环境,可能会缺少一些依赖库,本机安装对应的依赖就可以了)

# 解压nginxtar -xvf nginx-1.17.7.tar.gz# 进入目录cd nginx-1.17.7# 配置./configure --prefix=/usr/local/nginx# 编译sudo make# 安装sudo make install# 进入nginx执行目录cd /usr/local/nginx/sbin# 启动nginx./nginx

安装完成如果访问 http://127.0.0.1 可以看到 Welcometo nginx!字样,说明我们已经安装成功了。

示例项目

为了演示更新服务用户无痛感知,我们先来创建一个简单的 SpringBoot示例项目,在项目内添加一个测试接口,项目 pom.xml依赖如下所示:

      org.springframework.boot    spring-boot-starter-web  

示例接口

创建一个名为 TestController的测试控制器,如下所示:

/** * 测试控制器 * * @author 恒宇少年 */@RestController@RequestMapping(value = "/test")public class TestController {    @Autowired    private ServerProperties serverProperties;    @GetMapping    public String hello() {        return "请求分发到了,端口号:" + serverProperties.getPort() + "的服务,接口访问成功.";    }}

配置转发

我们测试所需要的请求接口已经准备好了,接下来需要在访问 nginx时将请求转发到我们测试的接口,配置转发时需要用到 nginx的两个关键字,分别是 upstream、 location。

  • upstream:服务器组,配置请求分发到组内多台服务器。
  • location:转发的路径前缀,如:"/user/",当我们访问 http://127.0.0.1/user/1时,就会执行该 location的转发业务。

upstream转发流程如下图所示:

配置UpStream

在 nginx.conf文件 http内添加转发的 服务器组(upstream),如下所示:

# 负载配置upstream test {    server 127.0.0.1:8080 weight=1;    server 127.0.0.1:9090 weight=2;    server 127.0.0.1:9000 backup;}

配置Location

在上面已经配置好了服务器组,我们需要把名为 test的服务器组作为代理的方式配置在 location,在 location的 server下新增一个 location,如下所示:

# 配置"/lb/"路径的请求全部转发到本地8080端口location /lb/ {    proxy_pass http://test/;    proxy_set_header Host $host;    proxy_set_header X-Real-IP $remote_addr;    proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;    proxy_connect_timeout       50;    proxy_read_timeout          50;    proxy_send_timeout          50;}

重启Nginx

我这里是使用 brew的方式安装的 nginx,所以重启的命令如下所示:

brew services restart nginx

如果你是 安装包的方式安装:

# 进入安装包目录cd /usr/local/nginx/sbin# 重载./nginx -s reload

权重配置

在 nginx中有一个权重的概念,根据权重值的大小来控制请求流量,当权重的配值越大时,流量分发就会越多,我们在 test服务器组内配置权重解释:

  • server127.0.0.1:8080weight1; 权重占比为 1/3,每3次请求会转发1次到这台服务器上。
  • server127.0.0.1:9090weight2; 权重占比为 2/3,每3次请求会转发2次到这台服务器上。

备用配置

当我们在 upstream内的 server尾部添加 backup时,表示这台服务器是备用服务器,只有其他服务器都停机时才会启用,我们更新时其实就利用的这一点。

运行测试

为了演示方便我们直接将本章测试项目 package打包后,通过 --server.port来指定运行的端口号来模拟多台服务器的场景。

# 启动127.0.0.1:8080服务器java -jar target/use-nginx-loadbalance-upgrade-service-0.0.1-SNAPSHOT.jar --server.port=8080# 启动127.0.0.1:9090服务器java -jar target/use-nginx-loadbalance-upgrade-service-0.0.1-SNAPSHOT.jar --server.port=9090# 启动127.0.0.1:9000备用服务器java -jar target/use-nginx-loadbalance-upgrade-service-0.0.1-SNAPSHOT.jar --server.port=9000

注意:使用多个终端窗口运行服务。

在 nginx.conf> server中配置 location的转发条件为 /lb/路径前缀,所以我们访问 http://127.0.0.1/lb/test (由于 nginx监听的端口号是80,所以通过 nginx访问转发时不需要携带端口号)就会被转发到 test服务器组内的服务器上。

测试点:权重转发

curl http://localhost/lb/test端口号:8080,接口访问成功.                                                                                                        curl http://localhost/lb/test端口号:9090,接口访问成功.curl http://localhost/lb/test                                                                                                       端口号:9090,接口访问成功.curl http://localhost/lb/test                                                                                                      端口号:8080,接口访问成功. 

根据访问的结果来看, 8080端口号的服务是每3次中请求了 1次,而 9090则是每3次中请求了 2次,这一点正是符合我们配置的权重( weight),测试通过。

测试点:备用生效

我们把 8080、 9090这两个服务都停掉,再次访问 http://127.0.0.1/lb/test 。

curl http://localhost/lb/test端口号:9000,接口访问成功.curl http://localhost/lb/test                                                                                                       端口号:9000,接口访问成功.      curl http://localhost/lb/test                                                                                                  端口号:9000,接口访问成功.

可以看到我们的备用服务器启用了,已经把全部的请求流量转发到 9000这台服务上,测试通过。

敲黑板,划重点

当我们把 8080、 9090都停掉时,备用服务器会启用,这时我们就可以来更新 8080、 9090这两个服务的运行代码,更新完成后重启,只要 8080、 9090这两台服务器有一台处于运行状态, nginx就不会把流量分发到备用的 9000,以此类推把全部的服务都更新完成。

代码示例

如果您喜欢本篇文章请为源码仓库点个 Star,谢谢!!! 本篇文章示例源码可以通过以下途径获取,目录为
use-nginx-loadbalance-upgrade-service:

  • Gitee:https://gitee.com/hengboy/spring-boot-chapter

相关推荐

在NAS实现直链访问_如何访问nas存储数据

平常在使用IPTV或者TVBOX时,经常自己会自定义一些源。如何直链的方式引用这些自定义的源呢?本人基于armbian和CasaOS来创作。使用标准的Web服务器(如Nginx或Apache...

PHP开发者必备的Linux权限核心指南

本文旨在帮助PHP开发者彻底理解并解决在Linux服务器上部署应用时遇到的权限问题(如Permissiondenied)。核心在于理解“哪个用户(进程)在访问哪个文件(目录)”。一、核心...

【Linux高手必修课】吃透sed命令!文本手术刀让你秒变运维大神!

为什么说sed是Linux运维的"核武器"?想象你有10万个配置文件需要批量修改?传统方式要写10万行脚本?sed一个命令就能搞定!这正是运维工程师的"暴力美学"时...

「实战」docker-compose 编排 多个docker 组成一个集群并做负载

本文目标docker-compose,对springboot应用进行一个集群(2个docker,多个类似,只要在docker-compose.yml再加boot应用的服务即可)发布的过程架构...

企业安全访问网关:ZeroNews反向代理

“我们需要让外包团队访问测试环境,但不想让他们看到我们的财务系统。”“审计要求我们必须记录所有第三方对内部系统的访问,现在的VPN日志一团糟。”“每次有新员工入职或合作伙伴接入,IT部门都要花半天时间...

反向代理以及其使用场景_反向代理实现过程

一、反向代理概念反向代理(ReverseProxy)是一种服务器配置,它将客户端的请求转发给内部的另一台或多台服务器处理,然后将响应返回给客户端。与正向代理(ForwardProxy)不同,正向代...

Nginx反向代理有多牛?一篇文章带你彻底搞懂!

你以为Nginx只是个简单的Web服务器?那可就大错特错了!这个看似普通的开源软件,实际上隐藏着惊人的能力。今天我们就来揭开它最强大的功能之一——反向代理的神秘面纱。反向代理到底是什么鬼?想象一下你...

Nginx反向代理最全详解(原理+应用+案例)

Nginx反向代理在大型网站有非常广泛的使用,下面我就重点来详解Nginx反向代理@mikechen文章来源:mikechen.cc正向代理要理解清楚反向代理,首先:你需要搞懂什么是正向代理。正向代理...

centos 生产环境安装 nginx,包含各种模块http3

企业级生产环境Nginx全模块构建的大部分功能,包括HTTP/2、HTTP/3、流媒体、SSL、缓存清理、负载均衡、DAV扩展、替换过滤、静态压缩等。下面我给出一个完整的生产环境安装流程(C...

Nginx的负载均衡方式有哪些?_nginx负载均衡机制

1.轮询(默认)2.加权轮询3.ip_hash4.least_conn5.fair(最小响应时间)--第三方6.url_hash--第三方...

Nginx百万并发优化:如何提升100倍性能!

关注△mikechen△,十余年BAT架构经验倾囊相授!大家好,我是mikechen。Nginx是大型架构的核心,下面我重点详解Nginx百万并发优化@mikechen文章来源:mikechen....

在 Red Hat Linux 上搭建高可用 Nginx + Keepalived 负载均衡集群

一、前言在现代生产环境中,负载均衡是确保系统高可用性和可扩展性的核心技术。Nginx作为轻量级高性能Web服务器,与Keepalived结合,可轻松实现高可用负载均衡集群(HA+LB...

云原生(十五) | Kubernetes 篇之深入了解 Pod

深入了解Pod一、什么是PodPod是一组(一个或多个)容器(docker容器)的集合(就像在豌豆荚中);这些容器共享存储、网络、以及怎样运行这些容器的声明。我们一般不直接创建Pod,而是...

云原生(十七) | Kubernetes 篇之深入了解 Deployment

深入了解Deployment一、什么是Deployment一个Deployment为Pods和ReplicaSets提供声明式的更新能力。你负责描述Deployment中的目标状...

深入理解令牌桶算法:实现分布式系统高效限流的秘籍

在高并发系统中,“限流”是保障服务稳定的核心手段——当请求量超过系统承载能力时,合理的限流策略能避免服务过载崩溃。令牌桶算法(TokenBucket)作为最经典的限流算法之一,既能控制请求的平...

取消回复欢迎 发表评论: