百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术资源 > 正文

python简简单单写个批量CSV合并工具(多进程)

off999 2024-12-17 15:42 27 浏览 0 评论

1、功能快速实现批量CSV文件的合并,1000个CSV文件只需13秒合并完2、代码实例(多进程)import osimport csv
import multiprocessing
import time


def process_csv(file):
    filepath = os.path.join(r'D:\py\data', file)
    with open(filepath, 'r') as f:
        reader = csv.reader(f)

        rows = []
        for row in reader:
            # 处理CSV文件的每一行数据
            processed_row = process_row(row)
            rows.append(processed_row)

    return rows


def process_row(row):
    # 这里可以对每一行数据进行处理,根据实际需求进行操作
    processed_row = row
    # 示例:将每个元素转换为大写
    processed_row = [item.upper() for item in processed_row]
    return processed_row

def do(csv_files):
    pool = multiprocessing.Pool()
    results = pool.map(process_csv, csv_files)
    pool.close()
    pool.join()
 # 合并所有结果到一个列表
    merged_rows = []
    for rows in results:
        merged_rows.extend(rows)

    # 将合并后的结果写入到输出文件
    output_filepath = os.path.join(r'D:\py', 'output.csv')
    with open(output_filepath, 'w', newline='') as output_file:
        writer = csv.writer(output_file)
        writer.writerows(merged_rows)




if __name__ == '__main__':
    csv_files = os.listdir(r'D:\py\data')
    start_time = time.time()  # 记录起始时间

    do(csv_files)

    end_time = time.time()  # 记录结束时间
    elapsed_time = end_time - start_time  # 计算经过的时间
    print(f"执行耗时: {elapsed_time}秒")
3、效果图

程序启动时CPU使用峰值到达100%。

4、实现过程讲解


在这段代码中,pool.map(process_csv, csv_files)的作用是使用多进程方式并行处理多个CSV文件。具体解释如下:

  1. pool是一个multiprocessing.Pool()对象,创建了一个进程池。
  2. pool.map(process_csv, csv_files)调用map()方法,该方法接收两个参数:process_csv函数和csv_files列表。map()方法会将csv_files列表中的每个元素(即CSV文件名)传递给process_csv函数,并以多进程方式并行执行process_csv函数。
  3. 在process_csv函数中,打开指定的CSV文件,并逐行读取文件内容,对每一行数据调用process_row函数进行处理。
  4. process_row函数是一个示例函数,用于对每一行数据进行处理。在这里,它将每个元素都转换为大写形式。
  5. 处理完成后,将每个CSV文件的处理结果存储到results列表中。


5、用单进程读取同样的文件效率对比

1、下面用单进程方式合并同样数据的文件则需要耗时20秒,比多进程方式慢了将近一半

2、单进程运行效果图

3、代码实例(单进程)import osimport csv
from timer import get_time


def process_csv(file):
    filepath = os.path.join(r'D:\py\data', file)
    with open(filepath, 'r') as f:
        reader = csv.reader(f)

        rows = []
        for row in reader:
            # 处理CSV文件的每一行数据
            processed_row = process_row(row)
            rows.append(processed_row)

    return rows


def process_row(row):
    # 这里可以对每一行数据进行处理,根据实际需求进行操作
    processed_row = row
    # 示例:将每个元素转换为大写
    processed_row = [item.upper() for item in processed_row]
    return processed_row


@get_time
def do(csv_files):
    results = []
    for file in csv_files:
        result = process_csv(file)
        results.append(result)
    merged_rows = []
    for rows in results:
        merged_rows.extend(rows)
    #将合并后的结果写入到输出文件
    output_filepath = os.path.join(r'D:\py', 'output.csv')
    with open(output_filepath, 'w', newline='') as output_file:
        writer = csv.writer(output_file)
        writer.writerows(merged_rows)

if __name__ == '__main__':
    csv_files = os.listdir(r'D:\py\data')
    do(csv_files)


6、总结

当我们使用多进程编程时,我们可以同时运行多个进程,每个进程都有自己的一份代码、数据和资源。Python提供了多个库来实现多进程编程,其中最常用的是multiprocessing模块。

Python中的多进程编程有以下几个优点:

  1. 提高计算性能:通过并行执行多个进程,可以充分利用多核处理器的计算能力,加快程序的运行速度。
  2. 实现异步任务:多进程可以同时执行多个任务,其中一个任务阻塞不会影响其他任务的执行,从而实现异步任务的效果。
  3. 充分利用资源:多进程可以分配和管理系统的资源,使得程序可以更好地利用计算机的硬件资源。

下面是Python多进程编程的一般步骤:

  1. 导入multiprocessing模块:首先需要导入multiprocessing模块,它提供了创建和管理进程的类和函数。
  2. 创建进程:使用multiprocessing.Process()类可以创建一个新的进程。
  3. 定义进程要执行的任务:将要在新进程中执行的代码放入一个函数或方法中。
  4. 启动进程:调用进程对象的start()方法启动新进程。
  5. 等待进程结束:可以使用join()方法等待进程执行完成。

相关推荐

在NAS实现直链访问_如何访问nas存储数据

平常在使用IPTV或者TVBOX时,经常自己会自定义一些源。如何直链的方式引用这些自定义的源呢?本人基于armbian和CasaOS来创作。使用标准的Web服务器(如Nginx或Apache...

PHP开发者必备的Linux权限核心指南

本文旨在帮助PHP开发者彻底理解并解决在Linux服务器上部署应用时遇到的权限问题(如Permissiondenied)。核心在于理解“哪个用户(进程)在访问哪个文件(目录)”。一、核心...

【Linux高手必修课】吃透sed命令!文本手术刀让你秒变运维大神!

为什么说sed是Linux运维的"核武器"?想象你有10万个配置文件需要批量修改?传统方式要写10万行脚本?sed一个命令就能搞定!这正是运维工程师的"暴力美学"时...

「实战」docker-compose 编排 多个docker 组成一个集群并做负载

本文目标docker-compose,对springboot应用进行一个集群(2个docker,多个类似,只要在docker-compose.yml再加boot应用的服务即可)发布的过程架构...

企业安全访问网关:ZeroNews反向代理

“我们需要让外包团队访问测试环境,但不想让他们看到我们的财务系统。”“审计要求我们必须记录所有第三方对内部系统的访问,现在的VPN日志一团糟。”“每次有新员工入职或合作伙伴接入,IT部门都要花半天时间...

反向代理以及其使用场景_反向代理实现过程

一、反向代理概念反向代理(ReverseProxy)是一种服务器配置,它将客户端的请求转发给内部的另一台或多台服务器处理,然后将响应返回给客户端。与正向代理(ForwardProxy)不同,正向代...

Nginx反向代理有多牛?一篇文章带你彻底搞懂!

你以为Nginx只是个简单的Web服务器?那可就大错特错了!这个看似普通的开源软件,实际上隐藏着惊人的能力。今天我们就来揭开它最强大的功能之一——反向代理的神秘面纱。反向代理到底是什么鬼?想象一下你...

Nginx反向代理最全详解(原理+应用+案例)

Nginx反向代理在大型网站有非常广泛的使用,下面我就重点来详解Nginx反向代理@mikechen文章来源:mikechen.cc正向代理要理解清楚反向代理,首先:你需要搞懂什么是正向代理。正向代理...

centos 生产环境安装 nginx,包含各种模块http3

企业级生产环境Nginx全模块构建的大部分功能,包括HTTP/2、HTTP/3、流媒体、SSL、缓存清理、负载均衡、DAV扩展、替换过滤、静态压缩等。下面我给出一个完整的生产环境安装流程(C...

Nginx的负载均衡方式有哪些?_nginx负载均衡机制

1.轮询(默认)2.加权轮询3.ip_hash4.least_conn5.fair(最小响应时间)--第三方6.url_hash--第三方...

Nginx百万并发优化:如何提升100倍性能!

关注△mikechen△,十余年BAT架构经验倾囊相授!大家好,我是mikechen。Nginx是大型架构的核心,下面我重点详解Nginx百万并发优化@mikechen文章来源:mikechen....

在 Red Hat Linux 上搭建高可用 Nginx + Keepalived 负载均衡集群

一、前言在现代生产环境中,负载均衡是确保系统高可用性和可扩展性的核心技术。Nginx作为轻量级高性能Web服务器,与Keepalived结合,可轻松实现高可用负载均衡集群(HA+LB...

云原生(十五) | Kubernetes 篇之深入了解 Pod

深入了解Pod一、什么是PodPod是一组(一个或多个)容器(docker容器)的集合(就像在豌豆荚中);这些容器共享存储、网络、以及怎样运行这些容器的声明。我们一般不直接创建Pod,而是...

云原生(十七) | Kubernetes 篇之深入了解 Deployment

深入了解Deployment一、什么是Deployment一个Deployment为Pods和ReplicaSets提供声明式的更新能力。你负责描述Deployment中的目标状...

深入理解令牌桶算法:实现分布式系统高效限流的秘籍

在高并发系统中,“限流”是保障服务稳定的核心手段——当请求量超过系统承载能力时,合理的限流策略能避免服务过载崩溃。令牌桶算法(TokenBucket)作为最经典的限流算法之一,既能控制请求的平...

取消回复欢迎 发表评论: