python简简单单写个批量CSV合并工具(多进程)
off999 2024-12-17 15:42 27 浏览 0 评论
1、功能快速实现批量CSV文件的合并,1000个CSV文件只需13秒合并完2、代码实例(多进程)import osimport csv
import multiprocessing
import time
def process_csv(file):
filepath = os.path.join(r'D:\py\data', file)
with open(filepath, 'r') as f:
reader = csv.reader(f)
rows = []
for row in reader:
# 处理CSV文件的每一行数据
processed_row = process_row(row)
rows.append(processed_row)
return rows
def process_row(row):
# 这里可以对每一行数据进行处理,根据实际需求进行操作
processed_row = row
# 示例:将每个元素转换为大写
processed_row = [item.upper() for item in processed_row]
return processed_row
def do(csv_files):
pool = multiprocessing.Pool()
results = pool.map(process_csv, csv_files)
pool.close()
pool.join()
# 合并所有结果到一个列表
merged_rows = []
for rows in results:
merged_rows.extend(rows)
# 将合并后的结果写入到输出文件
output_filepath = os.path.join(r'D:\py', 'output.csv')
with open(output_filepath, 'w', newline='') as output_file:
writer = csv.writer(output_file)
writer.writerows(merged_rows)
if __name__ == '__main__':
csv_files = os.listdir(r'D:\py\data')
start_time = time.time() # 记录起始时间
do(csv_files)
end_time = time.time() # 记录结束时间
elapsed_time = end_time - start_time # 计算经过的时间
print(f"执行耗时: {elapsed_time}秒")
3、效果图
程序启动时CPU使用峰值到达100%。
4、实现过程讲解
在这段代码中,pool.map(process_csv, csv_files)的作用是使用多进程方式并行处理多个CSV文件。具体解释如下:
- pool是一个multiprocessing.Pool()对象,创建了一个进程池。
- pool.map(process_csv, csv_files)调用map()方法,该方法接收两个参数:process_csv函数和csv_files列表。map()方法会将csv_files列表中的每个元素(即CSV文件名)传递给process_csv函数,并以多进程方式并行执行process_csv函数。
- 在process_csv函数中,打开指定的CSV文件,并逐行读取文件内容,对每一行数据调用process_row函数进行处理。
- process_row函数是一个示例函数,用于对每一行数据进行处理。在这里,它将每个元素都转换为大写形式。
- 处理完成后,将每个CSV文件的处理结果存储到results列表中。
5、用单进程读取同样的文件效率对比
1、下面用单进程方式合并同样数据的文件则需要耗时20秒,比多进程方式慢了将近一半
2、单进程运行效果图
3、代码实例(单进程)import osimport csv
from timer import get_time
def process_csv(file):
filepath = os.path.join(r'D:\py\data', file)
with open(filepath, 'r') as f:
reader = csv.reader(f)
rows = []
for row in reader:
# 处理CSV文件的每一行数据
processed_row = process_row(row)
rows.append(processed_row)
return rows
def process_row(row):
# 这里可以对每一行数据进行处理,根据实际需求进行操作
processed_row = row
# 示例:将每个元素转换为大写
processed_row = [item.upper() for item in processed_row]
return processed_row
@get_time
def do(csv_files):
results = []
for file in csv_files:
result = process_csv(file)
results.append(result)
merged_rows = []
for rows in results:
merged_rows.extend(rows)
#将合并后的结果写入到输出文件
output_filepath = os.path.join(r'D:\py', 'output.csv')
with open(output_filepath, 'w', newline='') as output_file:
writer = csv.writer(output_file)
writer.writerows(merged_rows)
if __name__ == '__main__':
csv_files = os.listdir(r'D:\py\data')
do(csv_files)
6、总结
当我们使用多进程编程时,我们可以同时运行多个进程,每个进程都有自己的一份代码、数据和资源。Python提供了多个库来实现多进程编程,其中最常用的是multiprocessing模块。
Python中的多进程编程有以下几个优点:
- 提高计算性能:通过并行执行多个进程,可以充分利用多核处理器的计算能力,加快程序的运行速度。
- 实现异步任务:多进程可以同时执行多个任务,其中一个任务阻塞不会影响其他任务的执行,从而实现异步任务的效果。
- 充分利用资源:多进程可以分配和管理系统的资源,使得程序可以更好地利用计算机的硬件资源。
下面是Python多进程编程的一般步骤:
- 导入multiprocessing模块:首先需要导入multiprocessing模块,它提供了创建和管理进程的类和函数。
- 创建进程:使用multiprocessing.Process()类可以创建一个新的进程。
- 定义进程要执行的任务:将要在新进程中执行的代码放入一个函数或方法中。
- 启动进程:调用进程对象的start()方法启动新进程。
- 等待进程结束:可以使用join()方法等待进程执行完成。
相关推荐
- 在NAS实现直链访问_如何访问nas存储数据
-
平常在使用IPTV或者TVBOX时,经常自己会自定义一些源。如何直链的方式引用这些自定义的源呢?本人基于armbian和CasaOS来创作。使用标准的Web服务器(如Nginx或Apache...
- PHP开发者必备的Linux权限核心指南
-
本文旨在帮助PHP开发者彻底理解并解决在Linux服务器上部署应用时遇到的权限问题(如Permissiondenied)。核心在于理解“哪个用户(进程)在访问哪个文件(目录)”。一、核心...
- 【Linux高手必修课】吃透sed命令!文本手术刀让你秒变运维大神!
-
为什么说sed是Linux运维的"核武器"?想象你有10万个配置文件需要批量修改?传统方式要写10万行脚本?sed一个命令就能搞定!这正是运维工程师的"暴力美学"时...
- 「实战」docker-compose 编排 多个docker 组成一个集群并做负载
-
本文目标docker-compose,对springboot应用进行一个集群(2个docker,多个类似,只要在docker-compose.yml再加boot应用的服务即可)发布的过程架构...
- 企业安全访问网关:ZeroNews反向代理
-
“我们需要让外包团队访问测试环境,但不想让他们看到我们的财务系统。”“审计要求我们必须记录所有第三方对内部系统的访问,现在的VPN日志一团糟。”“每次有新员工入职或合作伙伴接入,IT部门都要花半天时间...
- 反向代理以及其使用场景_反向代理实现过程
-
一、反向代理概念反向代理(ReverseProxy)是一种服务器配置,它将客户端的请求转发给内部的另一台或多台服务器处理,然后将响应返回给客户端。与正向代理(ForwardProxy)不同,正向代...
- Nginx反向代理有多牛?一篇文章带你彻底搞懂!
-
你以为Nginx只是个简单的Web服务器?那可就大错特错了!这个看似普通的开源软件,实际上隐藏着惊人的能力。今天我们就来揭开它最强大的功能之一——反向代理的神秘面纱。反向代理到底是什么鬼?想象一下你...
- Nginx反向代理最全详解(原理+应用+案例)
-
Nginx反向代理在大型网站有非常广泛的使用,下面我就重点来详解Nginx反向代理@mikechen文章来源:mikechen.cc正向代理要理解清楚反向代理,首先:你需要搞懂什么是正向代理。正向代理...
- centos 生产环境安装 nginx,包含各种模块http3
-
企业级生产环境Nginx全模块构建的大部分功能,包括HTTP/2、HTTP/3、流媒体、SSL、缓存清理、负载均衡、DAV扩展、替换过滤、静态压缩等。下面我给出一个完整的生产环境安装流程(C...
- Nginx的负载均衡方式有哪些?_nginx负载均衡机制
-
1.轮询(默认)2.加权轮询3.ip_hash4.least_conn5.fair(最小响应时间)--第三方6.url_hash--第三方...
- Nginx百万并发优化:如何提升100倍性能!
-
关注△mikechen△,十余年BAT架构经验倾囊相授!大家好,我是mikechen。Nginx是大型架构的核心,下面我重点详解Nginx百万并发优化@mikechen文章来源:mikechen....
- 在 Red Hat Linux 上搭建高可用 Nginx + Keepalived 负载均衡集群
-
一、前言在现代生产环境中,负载均衡是确保系统高可用性和可扩展性的核心技术。Nginx作为轻量级高性能Web服务器,与Keepalived结合,可轻松实现高可用负载均衡集群(HA+LB...
- 云原生(十五) | Kubernetes 篇之深入了解 Pod
-
深入了解Pod一、什么是PodPod是一组(一个或多个)容器(docker容器)的集合(就像在豌豆荚中);这些容器共享存储、网络、以及怎样运行这些容器的声明。我们一般不直接创建Pod,而是...
- 云原生(十七) | Kubernetes 篇之深入了解 Deployment
-
深入了解Deployment一、什么是Deployment一个Deployment为Pods和ReplicaSets提供声明式的更新能力。你负责描述Deployment中的目标状...
- 深入理解令牌桶算法:实现分布式系统高效限流的秘籍
-
在高并发系统中,“限流”是保障服务稳定的核心手段——当请求量超过系统承载能力时,合理的限流策略能避免服务过载崩溃。令牌桶算法(TokenBucket)作为最经典的限流算法之一,既能控制请求的平...
你 发表评论:
欢迎- 一周热门
- 最近发表
- 标签列表
-
- python计时 (73)
- python安装路径 (56)
- python类型转换 (93)
- python进度条 (67)
- python吧 (67)
- python的for循环 (65)
- python格式化字符串 (61)
- python静态方法 (57)
- python列表切片 (59)
- python面向对象编程 (60)
- python 代码加密 (65)
- python串口编程 (77)
- python封装 (57)
- python写入txt (66)
- python读取文件夹下所有文件 (59)
- python操作mysql数据库 (66)
- python获取列表的长度 (64)
- python接口 (63)
- python调用函数 (57)
- python多态 (60)
- python匿名函数 (59)
- python打印九九乘法表 (65)
- python赋值 (62)
- python异常 (69)
- python元祖 (57)