Python自动化:批量处理Excel,按要求筛选出数据并存到新表
off999 2024-12-17 15:43 26 浏览 0 评论
摘要: 你是否曾被重复的数据筛选工作折磨得筋疲力尽。现在,借助Python自动化工具,仅需几秒钟就能完成原本需要上千分钟的工作量,彻底告别了枯燥与低效!
引言
在仓库管理这个看似平凡却又充满挑战的岗位上,微信公众号粉丝小李担任着仓库主管的角色。每月,他都要执行一项看似简单却极其繁琐的任务:从过去几年的每月物品领用表中筛选出老板需要的数据,比如:领用数量大于1000的物品信息。这不仅是一项重复性极高的工作,而且手工操作一次表格就需要几分钟,每年的数据表都是按月存储的,操作一年的数据表就需要重复操作12次,而十年的数据就需要重复120次,耗费的时间累积起来高达上千分钟。
1.小李的挑战
小李在后台留言中描述了他的困境:“每年的数据表我都需要重复操作12次,十年的数据就是120次。这不仅让我感到疲惫,而且效率极低,手工操作一次表格就需要几分钟,累计起来就是上千分钟。”
2.传统方法的局限
在没有自动化工具辅助的情况下,小李的工作流程是这样的:
- 打开每个Excel文件,逐月查找领用数量。
- 手动筛选出领用数量大于1000的物品信息。
- 复制这些信息并粘贴到新的Excel表中。
- 保存并关闭每个文件,然后重复这个过程。
这个过程不仅耗时,而且容易出错,特别是当数据量庞大时,小李需要保持高度的专注力以避免遗漏或错误。
3.Python自动化的解决方案
我们为小李提供了一个Python脚本,这个脚本能够自动按条件筛选数据并保存到新的Excel里。使用pandas库,我们可以快速读取、筛选并合并数据。
import os
from openpyxl import load_workbook
import pandas as pd
from openpyxl.styles import Border, Side, PatternFill, Font, GradientFill, Alignment
def extract_and_select_data(folder_path, dest_dir):
try:
for filename in os.listdir(folder_path):
if filename.endswith('.xlsx'):
src = os.path.join(folder_path, filename)
os.makedirs(dest_dir, exist_ok=True)
dest_file = os.path.join(dest_dir, filename)
wb = load_workbook(src)
data = {} # 储存所有工作表中满足条件的数据,以工作表名称为键
sheet_names = wb.sheetnames
for sheet_name in sheet_names:
ws = wb[sheet_name]
qty_list = []
# 获取G列的数据,并用enumrate给其对应的元素编号
for row in range(2, ws.max_row+1):
qty = ws['G'+str(row)].value
qty_list.append(qty)
qty_idx = list(enumerate(qty_list)) # 用于编号
# 判断数据是否大于1000,然后返回大于1000的数据所对应的行数
row_idx = [] # 用于储存数量大于1000所对应的的行号
for i in range(len(qty_idx)):
if qty_idx[i][1] > 1000:
row_idx.append(qty_idx[i][0]+2)
# 获取满足条件的数据
data_morethan1K = []
for i in row_idx:
data_morethan1K.append(
ws['A'+str(i)+":"+'I'+str(i)])
data[sheet_name] = data_morethan1K
thin = Side(border_style="thin",
color="000000") # 定义边框粗细及颜色
wb = load_workbook("模板.xlsx")
ws = wb.active
for month in data.keys():
ws_new = wb.copy_worksheet(ws) # 复制模板中的工作表
ws_new.title = month
# 将每个月的数据条数逐个取出并写入新的工作表
# 按数据行数计数,每行数据对应9列,所以每行需分别写入9个单元格
for i in range(len(data[month])):
ws_new.cell(
row=i+2, column=1).value = data[month][i][0][0].value
ws_new.cell(
row=i+2, column=2).value = data[month][i][0][1].value
ws_new.cell(
row=i+2, column=3).value = data[month][i][0][2].value
ws_new.cell(
row=i+2, column=4).value = data[month][i][0][3].value.date()
ws_new.cell(
row=i+2, column=5).value = data[month][i][0][4].value
ws_new.cell(
row=i+2, column=6).value = data[month][i][0][5].value
ws_new.cell(
row=i+2, column=7).value = data[month][i][0][6].value
ws_new.cell(
row=i+2, column=8).value = data[month][i][0][7].value
ws_new.cell(
row=i+2, column=9).value = data[month][i][0][8].value
# 设置字号,对齐,缩小字体填充,加边框
# Font(bold=True)可加粗字体
for row_number in range(2, ws_new.max_row+1):
for col_number in range(1, 10):
c = ws_new.cell(
row=row_number, column=col_number)
c.font = Font(size=10)
c.border = Border(
top=thin, left=thin, right=thin, bottom=thin)
c.alignment = Alignment(
horizontal="left", vertical="center", shrink_to_fit=True)
wb.save(dest_file)
except Exception as e:
print(e)
if __name__ == "__main__":
import time
s_t = time.time()
extract_and_select_data("data", "历年领料数量大于1K")
e_t = time.time()
print(f"用时{e_t-s_t}s")
4.效果展示
通过上述脚本,小李现在可以在20秒钟内完成之前需要上千分钟的工作。这个自动化工具不仅提高了效率,还减少了因手动操作导致的错误。更重要的是,它让小李能够将更多的时间和精力投入到更有创造性和战略性的工作上。
结语
Python自动化不仅仅是编程技巧的展示,更是一种工作方式的革新。它能够帮助我们从重复性劳动中解放出来,让我们有更多时间去做更有创造性的工作。小李的故事证明了自动化的力量,希望他的经历能够激励更多的人去探索和利用Python自动化办公的无限可能。
如果你也像小李一样,面临着重复性工作的苦恼,或者对Python脚本的编写有任何疑问,欢迎在评论区留言,我们将为你提供一对一的技术支持!
本文为原创技术文章,转载请标明出处。如果你喜欢本文,别忘了点赞、转发和关注我们的公众号,获取更多技术干货!
数海丹心
大数据和人工智能知识分享与应用
132篇原创内容
公众号
相关推荐
- 在NAS实现直链访问_如何访问nas存储数据
-
平常在使用IPTV或者TVBOX时,经常自己会自定义一些源。如何直链的方式引用这些自定义的源呢?本人基于armbian和CasaOS来创作。使用标准的Web服务器(如Nginx或Apache...
- PHP开发者必备的Linux权限核心指南
-
本文旨在帮助PHP开发者彻底理解并解决在Linux服务器上部署应用时遇到的权限问题(如Permissiondenied)。核心在于理解“哪个用户(进程)在访问哪个文件(目录)”。一、核心...
- 【Linux高手必修课】吃透sed命令!文本手术刀让你秒变运维大神!
-
为什么说sed是Linux运维的"核武器"?想象你有10万个配置文件需要批量修改?传统方式要写10万行脚本?sed一个命令就能搞定!这正是运维工程师的"暴力美学"时...
- 「实战」docker-compose 编排 多个docker 组成一个集群并做负载
-
本文目标docker-compose,对springboot应用进行一个集群(2个docker,多个类似,只要在docker-compose.yml再加boot应用的服务即可)发布的过程架构...
- 企业安全访问网关:ZeroNews反向代理
-
“我们需要让外包团队访问测试环境,但不想让他们看到我们的财务系统。”“审计要求我们必须记录所有第三方对内部系统的访问,现在的VPN日志一团糟。”“每次有新员工入职或合作伙伴接入,IT部门都要花半天时间...
- 反向代理以及其使用场景_反向代理实现过程
-
一、反向代理概念反向代理(ReverseProxy)是一种服务器配置,它将客户端的请求转发给内部的另一台或多台服务器处理,然后将响应返回给客户端。与正向代理(ForwardProxy)不同,正向代...
- Nginx反向代理有多牛?一篇文章带你彻底搞懂!
-
你以为Nginx只是个简单的Web服务器?那可就大错特错了!这个看似普通的开源软件,实际上隐藏着惊人的能力。今天我们就来揭开它最强大的功能之一——反向代理的神秘面纱。反向代理到底是什么鬼?想象一下你...
- Nginx反向代理最全详解(原理+应用+案例)
-
Nginx反向代理在大型网站有非常广泛的使用,下面我就重点来详解Nginx反向代理@mikechen文章来源:mikechen.cc正向代理要理解清楚反向代理,首先:你需要搞懂什么是正向代理。正向代理...
- centos 生产环境安装 nginx,包含各种模块http3
-
企业级生产环境Nginx全模块构建的大部分功能,包括HTTP/2、HTTP/3、流媒体、SSL、缓存清理、负载均衡、DAV扩展、替换过滤、静态压缩等。下面我给出一个完整的生产环境安装流程(C...
- Nginx的负载均衡方式有哪些?_nginx负载均衡机制
-
1.轮询(默认)2.加权轮询3.ip_hash4.least_conn5.fair(最小响应时间)--第三方6.url_hash--第三方...
- Nginx百万并发优化:如何提升100倍性能!
-
关注△mikechen△,十余年BAT架构经验倾囊相授!大家好,我是mikechen。Nginx是大型架构的核心,下面我重点详解Nginx百万并发优化@mikechen文章来源:mikechen....
- 在 Red Hat Linux 上搭建高可用 Nginx + Keepalived 负载均衡集群
-
一、前言在现代生产环境中,负载均衡是确保系统高可用性和可扩展性的核心技术。Nginx作为轻量级高性能Web服务器,与Keepalived结合,可轻松实现高可用负载均衡集群(HA+LB...
- 云原生(十五) | Kubernetes 篇之深入了解 Pod
-
深入了解Pod一、什么是PodPod是一组(一个或多个)容器(docker容器)的集合(就像在豌豆荚中);这些容器共享存储、网络、以及怎样运行这些容器的声明。我们一般不直接创建Pod,而是...
- 云原生(十七) | Kubernetes 篇之深入了解 Deployment
-
深入了解Deployment一、什么是Deployment一个Deployment为Pods和ReplicaSets提供声明式的更新能力。你负责描述Deployment中的目标状...
- 深入理解令牌桶算法:实现分布式系统高效限流的秘籍
-
在高并发系统中,“限流”是保障服务稳定的核心手段——当请求量超过系统承载能力时,合理的限流策略能避免服务过载崩溃。令牌桶算法(TokenBucket)作为最经典的限流算法之一,既能控制请求的平...
你 发表评论:
欢迎- 一周热门
- 最近发表
- 标签列表
-
- python计时 (73)
- python安装路径 (56)
- python类型转换 (93)
- python进度条 (67)
- python吧 (67)
- python的for循环 (65)
- python格式化字符串 (61)
- python静态方法 (57)
- python列表切片 (59)
- python面向对象编程 (60)
- python 代码加密 (65)
- python串口编程 (77)
- python封装 (57)
- python写入txt (66)
- python读取文件夹下所有文件 (59)
- python操作mysql数据库 (66)
- python获取列表的长度 (64)
- python接口 (63)
- python调用函数 (57)
- python多态 (60)
- python匿名函数 (59)
- python打印九九乘法表 (65)
- python赋值 (62)
- python异常 (69)
- python元祖 (57)