百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术资源 > 正文

python简简单单写个批量CSV合并工具(多进程)

off999 2024-12-17 15:42 22 浏览 0 评论

1、功能快速实现批量CSV文件的合并,1000个CSV文件只需13秒合并完2、代码实例(多进程)import osimport csv
import multiprocessing
import time


def process_csv(file):
    filepath = os.path.join(r'D:\py\data', file)
    with open(filepath, 'r') as f:
        reader = csv.reader(f)

        rows = []
        for row in reader:
            # 处理CSV文件的每一行数据
            processed_row = process_row(row)
            rows.append(processed_row)

    return rows


def process_row(row):
    # 这里可以对每一行数据进行处理,根据实际需求进行操作
    processed_row = row
    # 示例:将每个元素转换为大写
    processed_row = [item.upper() for item in processed_row]
    return processed_row

def do(csv_files):
    pool = multiprocessing.Pool()
    results = pool.map(process_csv, csv_files)
    pool.close()
    pool.join()
 # 合并所有结果到一个列表
    merged_rows = []
    for rows in results:
        merged_rows.extend(rows)

    # 将合并后的结果写入到输出文件
    output_filepath = os.path.join(r'D:\py', 'output.csv')
    with open(output_filepath, 'w', newline='') as output_file:
        writer = csv.writer(output_file)
        writer.writerows(merged_rows)




if __name__ == '__main__':
    csv_files = os.listdir(r'D:\py\data')
    start_time = time.time()  # 记录起始时间

    do(csv_files)

    end_time = time.time()  # 记录结束时间
    elapsed_time = end_time - start_time  # 计算经过的时间
    print(f"执行耗时: {elapsed_time}秒")
3、效果图

程序启动时CPU使用峰值到达100%。

4、实现过程讲解


在这段代码中,pool.map(process_csv, csv_files)的作用是使用多进程方式并行处理多个CSV文件。具体解释如下:

  1. pool是一个multiprocessing.Pool()对象,创建了一个进程池。
  2. pool.map(process_csv, csv_files)调用map()方法,该方法接收两个参数:process_csv函数和csv_files列表。map()方法会将csv_files列表中的每个元素(即CSV文件名)传递给process_csv函数,并以多进程方式并行执行process_csv函数。
  3. 在process_csv函数中,打开指定的CSV文件,并逐行读取文件内容,对每一行数据调用process_row函数进行处理。
  4. process_row函数是一个示例函数,用于对每一行数据进行处理。在这里,它将每个元素都转换为大写形式。
  5. 处理完成后,将每个CSV文件的处理结果存储到results列表中。


5、用单进程读取同样的文件效率对比

1、下面用单进程方式合并同样数据的文件则需要耗时20秒,比多进程方式慢了将近一半

2、单进程运行效果图

3、代码实例(单进程)import osimport csv
from timer import get_time


def process_csv(file):
    filepath = os.path.join(r'D:\py\data', file)
    with open(filepath, 'r') as f:
        reader = csv.reader(f)

        rows = []
        for row in reader:
            # 处理CSV文件的每一行数据
            processed_row = process_row(row)
            rows.append(processed_row)

    return rows


def process_row(row):
    # 这里可以对每一行数据进行处理,根据实际需求进行操作
    processed_row = row
    # 示例:将每个元素转换为大写
    processed_row = [item.upper() for item in processed_row]
    return processed_row


@get_time
def do(csv_files):
    results = []
    for file in csv_files:
        result = process_csv(file)
        results.append(result)
    merged_rows = []
    for rows in results:
        merged_rows.extend(rows)
    #将合并后的结果写入到输出文件
    output_filepath = os.path.join(r'D:\py', 'output.csv')
    with open(output_filepath, 'w', newline='') as output_file:
        writer = csv.writer(output_file)
        writer.writerows(merged_rows)

if __name__ == '__main__':
    csv_files = os.listdir(r'D:\py\data')
    do(csv_files)


6、总结

当我们使用多进程编程时,我们可以同时运行多个进程,每个进程都有自己的一份代码、数据和资源。Python提供了多个库来实现多进程编程,其中最常用的是multiprocessing模块。

Python中的多进程编程有以下几个优点:

  1. 提高计算性能:通过并行执行多个进程,可以充分利用多核处理器的计算能力,加快程序的运行速度。
  2. 实现异步任务:多进程可以同时执行多个任务,其中一个任务阻塞不会影响其他任务的执行,从而实现异步任务的效果。
  3. 充分利用资源:多进程可以分配和管理系统的资源,使得程序可以更好地利用计算机的硬件资源。

下面是Python多进程编程的一般步骤:

  1. 导入multiprocessing模块:首先需要导入multiprocessing模块,它提供了创建和管理进程的类和函数。
  2. 创建进程:使用multiprocessing.Process()类可以创建一个新的进程。
  3. 定义进程要执行的任务:将要在新进程中执行的代码放入一个函数或方法中。
  4. 启动进程:调用进程对象的start()方法启动新进程。
  5. 等待进程结束:可以使用join()方法等待进程执行完成。

相关推荐

让 Python 代码飙升330倍:从入门到精通的四种性能优化实践

花下猫语:性能优化是每个程序员的必修课,但你是否想过,除了更换算法,还有哪些“大招”?这篇文章堪称典范,它将一个普通的函数,通过四套组合拳,硬生生把性能提升了330倍!作者不仅展示了“术”,更传授...

7 段不到 50 行的 Python 脚本,解决 7 个真实麻烦:代码、场景与可复制

“本文整理自开发者AbdurRahman在Stackademic的真实记录,所有代码均经过最小化删减,确保在50行内即可运行。每段脚本都对应一个日常场景,拿来即用,无需额外依赖。一、在朋...

Python3.14:终于摆脱了GIL的限制

前言Python中最遭人诟病的设计之一就是GIL。GIL(全局解释器锁)是CPython的一个互斥锁,确保任何时刻只有一个线程可以执行Python字节码,这样可以避免多个线程同时操作内部数据结...

Python Web开发实战:3小时从零搭建个人博客

一、为什么选Python做Web开发?Python在Web领域的优势很突出:o开发快:Django、Flask这些框架把常用功能都封装好了,不用重复写代码,能快速把想法变成能用的产品o需求多:行业...

图解Python编程:从入门到精通系列教程(附全套速查表)

引言本系列教程展开讲解Python编程语言,Python是一门开源免费、通用型的脚本编程语言,它上手简单,功能强大,它也是互联网最热门的编程语言之一。Python生态丰富,库(模块)极其丰富,这使...

Python 并发编程实战:从基础到实战应用

并发编程是提升Python程序效率的关键技能,尤其在处理多任务场景时作用显著。本文将系统介绍Python中主流的并发实现方式,帮助你根据场景选择最优方案。一、多线程编程(threading)核...

吴恩达亲自授课,适合初学者的Python编程课程上线

吴恩达教授开新课了,还是亲自授课!今天,人工智能著名学者、斯坦福大学教授吴恩达在社交平台X上发帖介绍了一门新课程——AIPythonforBeginners,旨在从头开始讲授Python...

Python GUI 编程:tkinter 初学者入门指南——Ttk 小部件

在本文中,将介绍Tkinter.ttk主题小部件,是常规Tkinter小部件的升级版本。Tkinter有两种小部件:经典小部件、主题小部件。Tkinter于1991年推出了经典小部件,...

Python turtle模块编程实践教程

一、模块概述与核心概念1.1turtle模块简介定义:turtle是Python标准库中的2D绘图模块,基于Logo语言的海龟绘图理念实现。核心原理:坐标系系统:原点(0,0)位于画布中心X轴:向右...

Python 中的asyncio 编程入门示例-1

Python的asyncio库是用于编写并发代码的,它使用async/await语法。它为编写异步程序提供了基础,通过非阻塞调用高效处理I/O密集型操作,适用于涉及网络连接、文件I/O...

30天学会Python,开启编程新世界

在当今这个数字化无处不在的时代,Python凭借其精炼的语法架构、卓越的性能以及多元化的应用领域,稳坐编程语言排行榜的前列。无论是投身于数据分析、人工智能的探索,还是Web开发的构建,亦或是自动化办公...

Python基础知识(IO编程)

1.文件读写读写文件是Python语言最常见的IO操作。通过数据盘读写文件的功能都是由操作系统提供的,读写文件就是请求操作系统打开一个文件对象(通常称为文件描述符),然后,通过操作系统提供的接口从这个...

Python零基础到精通,这8个入门技巧让你少走弯路,7天速通编程!

Python学习就像玩积木,从最基础的块开始,一步步搭建出复杂的作品。我记得刚开始学Python时也是一头雾水,走了不少弯路。现在回头看,其实掌握几个核心概念,就能快速入门这门编程语言。来聊聊怎么用最...

一文带你了解Python Socket 编程

大家好,我是皮皮。前言Socket又称为套接字,它是所有网络通信的基础。网络通信其实就是进程间的通信,Socket主要是使用IP地址,协议,端口号来标识一个进程。端口号的范围为0~65535(用户端口...

Python-面向对象编程入门

面向对象编程是一种非常流行的编程范式(programmingparadigm),所谓编程范式就是程序设计的方法论,简单的说就是程序员对程序的认知和理解以及他们编写代码的方式。类和对象面向对象编程:把...

取消回复欢迎 发表评论: