百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术资源 > 正文

GIL锁也拦不住!这个多进程方案让python速度提升400%

off999 2025-06-08 23:23 58 浏览 0 评论

引言

"你的python程序怎么卡死了?"

当产品经理第3次拍我桌子时,我终于意识到——在200万行的数据清洗任务面前,GIL锁正在把我的8核CPU变成单核计算器...

提前准备

为了查看核心使用数量,我们先安装库:

pip install psutil

使用下面代码查看核心使用情况:

import psutil


def get_active_cpu_count():
    per_cpu = psutil.cpu_percent(interval=1, percpu=True)
    active_cores = sum(1 for usage in per_cpu if usage > 20)  # 使用率超过20%认为活跃

    print(f'活跃的CPU核心数: {active_cores}')

一、GIL锁的致命困局

用多线程进行数据处理,我们通过查看活跃核心数量来判断使用核心的情况:

import os
import time
import threading


def get_data(path, event):
    while not event.is_set():
        time.sleep(0.01)
    total = 0
    with open(path, 'r') as f:
        for line in f:
            try:
                s_list = line.split(',')
                v = float(s_list[1])
                total += (v ** 100 + 20 / v + v * 3 - 1000 + (10 ** 24) - 2313.24234)
            except:
                pass
    print('任务完成')


def analyse_file():
    folder = r'D:\xxxxx'
    file_list = [os.path.join(folder, file) for file in os.listdir(folder)][:10]

    # 为了防止创建线程引起的cpu波动,使用信号来控制
    event = threading.Event()
    for path in file_list:
        t = threading.Thread(target=get_data, args=(path, event,))
        t.start()
    
    return event

if __name__ == '__main__':
    get_active_cpu_count()
    event = analyse_file()

    while True:
        event.set()
        get_active_cpu_count()
        time.sleep(1)

我使用了一个文件夹中的数据,它是如下内容:

2023-02-10 09:00:00.025,  0.00011195
2023-02-10 09:00:00.030,  0.00004691
2023-02-10 09:00:00.035,  -0.00006853
...

我取出后面的数据内容,随意进行处理,然后查看核心使用情况如下:

活跃的CPU核心数: 0
活跃的CPU核心数: 1
活跃的CPU核心数: 1
活跃的CPU核心数: 1
任务完成
任务完成
...

GIL(全局解释器锁)如同高速路上的收费站,即使开10个线程,CPU也只能交替放行。

二、核弹级提速方案

绕过GIL的真正秘诀在于跨进程内存隔离,每个 进程独立持有GIL

import os
import time
from multiprocessing import Process, Event

def get_data(path):
    total = 0
    with open(path, 'r') as f:
        for line in f:
            try:
                s_list = line.split(',')
                v = float(s_list[1])
                total += (v ** 100 + 20 / v + v * 3 - 1000 + (10 ** 24) - 2313.24234)
            except:
                pass
    print('任务完成')


def analyse_file():
    folder = r'D:\xxxxx'
    file_list = [os.path.join(folder, file) for file in os.listdir(folder)][:10]

    event = Event()
    for path in file_list:
        process = Process(target=get_data, args=(path, event,))
        process.start()

    return event


if __name__ == '__main__':
    get_active_cpu_count()
    event = analyse_file()

    while True:
        event.set()
        get_active_cpu_count()
        time.sleep(1)

查看核心使用情况:

活跃的CPU核心数: 0
活跃的CPU核心数: 16
任务完成
...

我的内核是8核,逻辑处理器是16核,可以看到使用了多进程后能够并行处理,并将核心使用吃满。

三、性能对比

方式

耗时(秒)

CPU利用率

线程

6.186309

15%

进程

1.046666

96%

两种方式相差 5.91倍

四、实战:百万日志文件优化方案

单进程版本

def single_process():
    with open('xxxx.log') as f:
        for line in f:  # 单线程逐行读取
            pass

多进程版本

from multiprocessing import Pool
import os

def split_file(input_file, num_parts=8):
    def line_generator(filename):
        with open(filename, 'r', encoding='utf-8') as f:
            for line in f:
                yield line

    gen = line_generator(input_file)

    output_folder = 'output'

    if not os.path.exists(output_folder):
        os.makedirs(output_folder)

    file_list = []
    for part in range(num_parts):
        output_file = os.path.join(output_folder, f'part_{part + 1}.log')
        with open(output_file, 'w', encoding='utf-8') as out_f:
            try:
                for _ in range(1000):  # 每次处理1000行
                    out_f.write(next(gen))
            except StopIteration:
                break

        file_list.append(output_file)

    return file_list

def multi_process():
    # 第一步:切分日志文件
    chunk_files = split_file('xxxx.log', 8)  # 这里可以使用多进程先将文件拆成8个子文件
    
    # 第二步:并行处理
    with Pool(8) as pool:
        partial_results = pool.map(analyze_chunk, chunk_files)
    
    # 第三步:聚合分块结果
    pass

def analyze_chunk(file):
# 分析分块文件
    results = {}
    with open(file) as f:
       pass
       
    # 将分析的结果返回
    return results

五、东西好但不要贪杯

虽然多进程有非常多的优势,但切记事物都有两面性,遇到下面的情况谨慎使用:

1. 高频小任务(创建进程开销 > 计算耗时)

2. 强依赖共享状态(如GUI进度条更新)

六、结尾

当我用多进程重构那个卡死的日志系统后,产品经理再也没有拍过我的桌子——因为任务在咖啡还没凉透时就跑完了。

更惊喜的是,服务器风扇终于停止了嘶吼...

相关推荐

阿里云国际站ECS:阿里云ECS如何提高网站的访问速度?

TG:@yunlaoda360引言:速度即体验,速度即业务在当今数字化的世界中,网站的访问速度已成为决定用户体验、用户留存乃至业务转化率的关键因素。页面加载每延迟一秒,都可能导致用户流失和收入损失。对...

高流量大并发Linux TCP性能调优_linux 高并发网络编程

其实主要是手里面的跑openvpn服务器。因为并没有明文禁p2p(哎……想想那么多流量好像不跑点p2p也跑不完),所以造成有的时候如果有比较多人跑BT的话,会造成VPN速度急剧下降。本文所面对的情况为...

性能测试100集(12)性能指标资源使用率

在性能测试中,资源使用率是评估系统硬件效率的关键指标,主要包括以下四类:#性能测试##性能压测策略##软件测试#1.CPU使用率定义:CPU处理任务的时间占比,计算公式为1-空闲时间/总...

Linux 服务器常见的性能调优_linux高性能服务端编程

一、Linux服务器性能调优第一步——先搞懂“看什么”很多人刚接触Linux性能调优时,总想着直接改配置,其实第一步该是“看清楚问题”。就像医生看病要先听诊,调优前得先知道服务器“哪里...

Nginx性能优化实战:手把手教你提升10倍性能!

关注△mikechen△,十余年BAT架构经验倾囊相授!Nginx是大型架构而核心,下面我重点详解Nginx性能@mikechen文章来源:mikechen.cc1.worker_processe...

高并发场景下,Spring Cloud Gateway如何抗住百万QPS?

关注△mikechen△,十余年BAT架构经验倾囊相授!大家好,我是mikechen。高并发场景下网关作为流量的入口非常重要,下面我重点详解SpringCloudGateway如何抗住百万性能@m...

Kubernetes 高并发处理实战(可落地案例 + 源码)

目标场景:对外提供HTTPAPI的微服务在短时间内收到大量请求(例如每秒数千至数万RPS),要求系统可弹性扩容、限流降级、缓存减压、稳定运行并能自动恢复。总体思路(多层防护):边缘层:云LB...

高并发场景下,Nginx如何扛住千万级请求?

Nginx是大型架构的必备中间件,下面我重点详解Nginx如何实现高并发@mikechen文章来源:mikechen.cc事件驱动模型Nginx采用事件驱动模型,这是Nginx高并发性能的基石。传统...

Spring Boot+Vue全栈开发实战,中文版高清PDF资源

SpringBoot+Vue全栈开发实战,中文高清PDF资源,需要的可以私我:)SpringBoot致力于简化开发配置并为企业级开发提供一系列非业务性功能,而Vue则采用数据驱动视图的方式将程序...

Docker-基础操作_docker基础实战教程二

一、镜像1、从仓库获取镜像搜索镜像:dockersearchimage_name搜索结果过滤:是否官方:dockersearch--filter="is-offical=true...

你有空吗?跟我一起搭个服务器好不好?

来人人都是产品经理【起点学院】,BAT实战派产品总监手把手系统带你学产品、学运营。昨天闲的没事的时候,随手翻了翻写过的文章,发现一个很严重的问题。就是大多数时间我都在滔滔不绝的讲理论,却很少有涉及动手...

部署你自己的 SaaS_saas如何部署

部署你自己的VPNOpenVPN——功能齐全的开源VPN解决方案。(DigitalOcean教程)dockovpn.io—无状态OpenVPNdockerized服务器,不需要持久存储。...

Docker Compose_dockercompose安装

DockerCompose概述DockerCompose是一个用来定义和管理多容器应用的工具,通过一个docker-compose.yml文件,用YAML格式描述服务、网络、卷等内容,...

京东T7架构师推出的电子版SpringBoot,从构建小系统到架构大系统

前言:Java的各种开发框架发展了很多年,影响了一代又一代的程序员,现在无论是程序员,还是架构师,使用这些开发框架都面临着两方面的挑战。一方面是要快速开发出系统,这就要求使用的开发框架尽量简单,无论...

Kubernetes (k8s) 入门学习指南_k8s kubeproxy

Kubernetes(k8s)入门学习指南一、什么是Kubernetes?为什么需要它?Kubernetes(k8s)是一个开源的容器编排系统,用于自动化部署、扩展和管理容器化应用程序。它...

取消回复欢迎 发表评论: