百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术资源 > 正文

GIL锁也拦不住!这个多进程方案让python速度提升400%

off999 2025-06-08 23:23 4 浏览 0 评论

引言

"你的python程序怎么卡死了?"

当产品经理第3次拍我桌子时,我终于意识到——在200万行的数据清洗任务面前,GIL锁正在把我的8核CPU变成单核计算器...

提前准备

为了查看核心使用数量,我们先安装库:

pip install psutil

使用下面代码查看核心使用情况:

import psutil


def get_active_cpu_count():
    per_cpu = psutil.cpu_percent(interval=1, percpu=True)
    active_cores = sum(1 for usage in per_cpu if usage > 20)  # 使用率超过20%认为活跃

    print(f'活跃的CPU核心数: {active_cores}')

一、GIL锁的致命困局

用多线程进行数据处理,我们通过查看活跃核心数量来判断使用核心的情况:

import os
import time
import threading


def get_data(path, event):
    while not event.is_set():
        time.sleep(0.01)
    total = 0
    with open(path, 'r') as f:
        for line in f:
            try:
                s_list = line.split(',')
                v = float(s_list[1])
                total += (v ** 100 + 20 / v + v * 3 - 1000 + (10 ** 24) - 2313.24234)
            except:
                pass
    print('任务完成')


def analyse_file():
    folder = r'D:\xxxxx'
    file_list = [os.path.join(folder, file) for file in os.listdir(folder)][:10]

    # 为了防止创建线程引起的cpu波动,使用信号来控制
    event = threading.Event()
    for path in file_list:
        t = threading.Thread(target=get_data, args=(path, event,))
        t.start()
    
    return event

if __name__ == '__main__':
    get_active_cpu_count()
    event = analyse_file()

    while True:
        event.set()
        get_active_cpu_count()
        time.sleep(1)

我使用了一个文件夹中的数据,它是如下内容:

2023-02-10 09:00:00.025,  0.00011195
2023-02-10 09:00:00.030,  0.00004691
2023-02-10 09:00:00.035,  -0.00006853
...

我取出后面的数据内容,随意进行处理,然后查看核心使用情况如下:

活跃的CPU核心数: 0
活跃的CPU核心数: 1
活跃的CPU核心数: 1
活跃的CPU核心数: 1
任务完成
任务完成
...

GIL(全局解释器锁)如同高速路上的收费站,即使开10个线程,CPU也只能交替放行。

二、核弹级提速方案

绕过GIL的真正秘诀在于跨进程内存隔离,每个 进程独立持有GIL

import os
import time
from multiprocessing import Process, Event

def get_data(path):
    total = 0
    with open(path, 'r') as f:
        for line in f:
            try:
                s_list = line.split(',')
                v = float(s_list[1])
                total += (v ** 100 + 20 / v + v * 3 - 1000 + (10 ** 24) - 2313.24234)
            except:
                pass
    print('任务完成')


def analyse_file():
    folder = r'D:\xxxxx'
    file_list = [os.path.join(folder, file) for file in os.listdir(folder)][:10]

    event = Event()
    for path in file_list:
        process = Process(target=get_data, args=(path, event,))
        process.start()

    return event


if __name__ == '__main__':
    get_active_cpu_count()
    event = analyse_file()

    while True:
        event.set()
        get_active_cpu_count()
        time.sleep(1)

查看核心使用情况:

活跃的CPU核心数: 0
活跃的CPU核心数: 16
任务完成
...

我的内核是8核,逻辑处理器是16核,可以看到使用了多进程后能够并行处理,并将核心使用吃满。

三、性能对比

方式

耗时(秒)

CPU利用率

线程

6.186309

15%

进程

1.046666

96%

两种方式相差 5.91倍

四、实战:百万日志文件优化方案

单进程版本

def single_process():
    with open('xxxx.log') as f:
        for line in f:  # 单线程逐行读取
            pass

多进程版本

from multiprocessing import Pool
import os

def split_file(input_file, num_parts=8):
    def line_generator(filename):
        with open(filename, 'r', encoding='utf-8') as f:
            for line in f:
                yield line

    gen = line_generator(input_file)

    output_folder = 'output'

    if not os.path.exists(output_folder):
        os.makedirs(output_folder)

    file_list = []
    for part in range(num_parts):
        output_file = os.path.join(output_folder, f'part_{part + 1}.log')
        with open(output_file, 'w', encoding='utf-8') as out_f:
            try:
                for _ in range(1000):  # 每次处理1000行
                    out_f.write(next(gen))
            except StopIteration:
                break

        file_list.append(output_file)

    return file_list

def multi_process():
    # 第一步:切分日志文件
    chunk_files = split_file('xxxx.log', 8)  # 这里可以使用多进程先将文件拆成8个子文件
    
    # 第二步:并行处理
    with Pool(8) as pool:
        partial_results = pool.map(analyze_chunk, chunk_files)
    
    # 第三步:聚合分块结果
    pass

def analyze_chunk(file):
# 分析分块文件
    results = {}
    with open(file) as f:
       pass
       
    # 将分析的结果返回
    return results

五、东西好但不要贪杯

虽然多进程有非常多的优势,但切记事物都有两面性,遇到下面的情况谨慎使用:

1. 高频小任务(创建进程开销 > 计算耗时)

2. 强依赖共享状态(如GUI进度条更新)

六、结尾

当我用多进程重构那个卡死的日志系统后,产品经理再也没有拍过我的桌子——因为任务在咖啡还没凉透时就跑完了。

更惊喜的是,服务器风扇终于停止了嘶吼...

相关推荐

真的没想到这个python装饰器还能这么写,见也没见过!

引言众所周知,python中,装饰器是非常好玩的,你能够在很多场景中看到它。有很多人可能经常会使用他人设计的装饰器,自己却很少设计过几个装饰器。当然也不乏有的大神非常善于设计装饰器。但不管如何,装饰...

Python 开发必知的 30 款工具(python语言的开发工具)

全面解析开发者在Python开发各个阶段可使用的核心工具热门开源工具Python开发涉及多个阶段,因此需要多种工具来管理:依赖管理:pip、Conda和Poetry是常见的选择。性能分析:...

快到飞起的Python包管理工具UV:从环境创建到PyPI发布的终极指南

尊敬的诸位!我是一名专注于嵌入式开发的物联网工程师。关注我,持续分享最新物联网与AI资讯和开发实战。期望与您携手探寻物联网与AI的无尽可能。"又在等pip安装包?配置国内镜像源也解决不了的...

Python输出语句print()(python输出语句print(3+5))

Python中的输出语句主要通过内置函数print()实现,它可以灵活输出文本、变量、表达式结果等内容到控制台或其他文件。以下是详细介绍及示例:一、print()基本语法print(*object...

Python range 函数实用指南(python range函数的用法)

对话实录小白:(抓狂)我写了foriinrange(5):,为什么只到4?专家:(推眼镜)range是左闭右开区间!记住:包含起点,不包含终点!基础用法三连击1.标准用法#生成0-4p...

3个实用的Pycharm小技巧(pycharm新手教程)

前言当我们用Pycharm来编写python代码的时候,你是否留意过以下三个技巧,接下来分享给大家。1.技巧一:Pycharm添加addsourcefolder操作1.1需求:我有一个项目,是...

python从入门到脱坑 输入与输出——print()函数

大家好今天开始系统的讲解一些入门课程,遇到不会的也不用想太多,跟着写一遍,学习到新内容是你就会明白.以下是针对Python初学者的print()函数详解,从基础到实用技巧,配合清晰示例:一、最基础用法...

Python进阶-day11:并发编程基础(python处理高并发)

一、学习目标理解线程和进程的区别及其应用场景。掌握Python中threading模块的基本用法。能够编写一个多线程下载器,应用并发编程知识。二、学习内容与时间安排上午(2小时):理论学习1....

Excel合并100个表格要1小时?Python3秒搞定!附代码

###**Python3秒合并100个Excel表格(附完整代码)****别再手动复制粘贴了!用Python一键批量合并,效率提升1200倍!**---####**适用场景**-每月汇...

GIL锁也拦不住!这个多进程方案让python速度提升400%

引言"你的python程序怎么卡死了?"当产品经理第3次拍我桌子时,我终于意识到——在200万行的数据清洗任务面前,GIL锁正在把我的8核CPU变成单核计算器...提前准备为了查看核心...

Python之进度条模块tqdm使用方法(python制作进度条可运行的代码)

tqdm是一个进度条模块,可以很好的描述一个任务的执行过程,并且使用起来也非常方便首先介绍tqdm常用参数:desc-进度条标题total-迭代总次数ncols-进度条总长度ascii-使用A...

Python 中制作神奇的动态进度条(python编写进度条)

在本教程中,我们将学习使用三个用于在Python中创建进度条的流行库:TQDM、alive-progress、progressbar。进度条可以在视觉上为用户提供有关任务进度的反馈,如文件下载、数...

用Python编制模拟简单的进度条(python2 进度条)

模拟实现进度条很多人经常在各种视频软件里面看到进度条对比,尤其是我们很多技术、数据走在世界的前列,通过这种展示出来,很是振奋、很激动、很有成就感。很多工具都能实现的,我们今天用python模拟看看。...

一日一技:python中的string.encode()方法

string.encode()方法string.encode()方法返回给定字符串的编码形式,从Python3.0开始,字符串以Unicode格式存储,即字符串中的每个字符都由一个代码点表示。因此...

python中字符串的操作(python字符串的基本处理)

字符串:英文str。表现形式有4种:‘xs’、“xs”、“”“xsxs”“”、‘’‘‘xxx’’’,三引号有个特殊功能,表示注释,跟#一样的功能,(如果字符串本身就有单则不可用单定义...

取消回复欢迎 发表评论: