百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术资源 > 正文

用 Pandera 高效验证和清洗 Pandas 数据集——实用分步指南

off999 2025-06-10 17:28 51 浏览 0 评论

当我们处理数据时,确保数据不脏、不无效非常重要——比如检查空值、缺失值,或某列类型不允许的数字。这些检查至关重要,因为劣质数据会导致错误分析、模型失败,并浪费大量时间和资源。

你可能已经用传统的 Pandas 方法清理和验证过数据,但在本教程中,我想向你介绍一款更强大的 Python 库:Pandera。Pandera 提供了灵活且表达力强的 API,可对类 DataFrame 对象进行数据验证。与手动检查相比,它更快、更具扩展性。你只需创建定义数据结构、数据类型和规则的 schema(模式),然后 Pandera 会根据这些 schema 检查你的数据,指出不符合要求的地方,让你能在早期发现并修正问题,避免日后遇到大麻烦。

本指南假设你已经具备一定的 Python 和 Pandas 基础。让我们一步步学习如何在工作流中使用 Pandera。


第 1 步:环境配置

首先,需要安装必要的包:

pip install pandera pandas

安装完成后,导入所需库,并验证安装结果:

import pandas as pd
import pandera as pa

print("pandas version:", pd.__version__)
print("pandera version:", pa.__version__)

输出应如下,显示 pandas 和 Pandera 的版本,确认安装成功:

pandas version: 2.2.2
pandera version: 0.0.0+dev0

第 2 步:创建示例数据集

让我们创建一个包含有意错误的客户信息数据集,便于演示清洗和验证流程:

import pandas as pd

# 包含错误的客户数据集
data = pd.DataFrame({
    "customer_id": [1, 2, 3, 4, "invalid"],  # "invalid" 不是整数
    "name": ["Maryam", "Jane", "", "Alice", "Bobby"],  # 包含空名字
    "age": [25, -5, 30, 45, 35],  # 年龄为负数无效
    "email": ["mrym@gmail.com", "jane.s@yahoo.com", "invalid_email", "alice@google.com", None]  # 邮箱无效或缺失
})

print("原始 DataFrame:")
print(data)

输出:

原始 DataFrame:
  customer_id    name  age             email
0           1  Maryam   25    mrym@gmail.com
1           2    Jane   -5  jane.s@yahoo.com
2           3           30     invalid_email
3           4   Alice   45  alice@google.com
4     invalid   Bobby   35              None

数据集中的问题:

  • customer_id
  • :包含字符串 "invalid",应为整数
  • name
  • :存在空字符串
  • age
  • :包含负数(-5)
  • email
  • :格式无效(invalid_email)和缺失值(None)

第 3 步:定义 Pandera Schema

Pandera 的 schema 定义了 DataFrame 期望的结构和约束。我们将用 DataFrameSchema 为每一列指定规则:

import pandera as pa
from pandera import Column, Check, DataFrameSchema

# 定义 schema
schema = DataFrameSchema({
    "customer_id": Column(
        dtype="int64",
        checks=[
            Check.isin(range(1, 1000)),  # ID 在 1~999 之间
            Check(lambda x: x > 0, element_wise=True)  # 必须为正数
        ],
        nullable=False
    ),
    "name": Column(
        dtype="string",
        checks=[
            Check.str_length(min_value=1),
            Check(lambda x: x.strip() != "", element_wise=True)
        ],
        nullable=False
    ),
    "age": Column(
        dtype="int64",
        checks=[
            Check.greater_than(0),  # 必须为正
            Check.less_than_or_equal_to(120)  # 合理范围
        ],
        nullable=False
    ),
    "email": Column(
        dtype="string",
        checks=[
            Check.str_matches(r"^[a-zA-Z0-9_.+-]+@[a-zA-Z0-9-]+\.[a-zA-Z0-9-.]+#34;)
        ],
        nullable=False
    )
})

第 4 步:初始验证

现在,用 schema 验证 DataFrame。Pandera 的 validate 方法会检查数据是否符合 schema,设置 lazy=True 可收集所有错误:

print("\n初始验证:")
try:
    validated_df = schema.validate(data, lazy=True)
    print("数据有效!")
    print(validated_df)
except pa.errors.SchemaErrors as e:
    print("验证失败,具体问题如下:")
    print(e.failure_cases[['column', 'check', 'failure_case', 'index']])

验证会失败,错误信息类似:

验证失败,具体问题如下:
        column                check         failure_case index
0  customer_id   isin(range(1, 1000))            invalid     4
1         name      str_length(1, None)                        2
2         name                                    2
3          age           greater_than(0)                -5     1
4        email              not_nullable              None     4
5        email  str_matches('...')      invalid_email     2
6  customer_id             dtype('int64')           object  None
...

第 5 步:清洗数据

我们已发现问题,接下来逐步清洗数据:

  • customer_id
  • :移除非整数或无效 ID
  • name
  • :移除空字符串
  • age
  • :移除负数或不合理年龄
  • email
  • :移除无效或缺失邮箱
# 5a. 清洗 customer_id
data["customer_id"] = pd.to_numeric(data["customer_id"], errors="coerce")
data = data[data["customer_id"].notna()]
data = data[data["customer_id"].isin(range(1, 1000))]
data["customer_id"] = data["customer_id"].astype("int64")

# 5b. 清洗 name
data = data[data["name"].str.strip() != ""]
data["name"] = data["name"].astype("string[python]")

# 5c. 清洗 age
data = data[data["age"] > 0]
data = data[data["age"] <= 120]

# 5d. 清洗 email
data = data[data["email"].notna()]
data = data[data["email"].str.match(r"^[a-zA-Z0-9_.+-]+@[a-zA-Z0-9-]+\.[a-zA-Z0-9-.]+#34;)]
data["email"] = data["email"].astype("string[python]")

print("清洗后的 DataFrame:")
print(data)

清洗后 DataFrame:

清洗后的 DataFrame:
   customer_id    name  age             email
0            1  Maryam   25    mrym@gmail.com
3            4   Alice   45  alice@google.com

第 6 步:再次验证数据

验证清洗后的 DataFrame,确保其符合 schema:

print("\n最终验证:")
try:
    validated_df = schema.validate(data, lazy=True)
    print("清洗后的数据有效!")
    print(validated_df)
except pa.errors.SchemaErrors as e:
    print("清洗后验证失败,错误如下:")
    print(e.failure_cases[['column', 'check', 'failure_case', 'index']])

输出:

最终验证:
清洗后的数据有效!
   customer_id    name  age             email
0            1  Maryam   25    mrym@gmail.com
3            4   Alice   45  alice@google.com

第 7 步:构建可复用的数据处理管道

可以将清洗和验证流程封装为可复用的函数:

def process_data(df, schema):
    """
    用 Pandera schema 处理并验证 DataFrame。
    参数:
        df: 输入的 pandas DataFrame
        schema: Pandera DataFrameSchema
    返回:
        验证且清洗后的 DataFrame,若验证失败则返回 None
    """
    data_clean = df.copy()

    data_clean["customer_id"] = pd.to_numeric(data_clean["customer_id"], errors="coerce")
    data_clean = data_clean[data_clean["customer_id"].notna()]
    data_clean = data_clean[data_clean["customer_id"].isin(range(1, 1000))]
    data_clean["customer_id"] = data_clean["customer_id"].astype("int64")

    data_clean = data_clean[data_clean["name"].str.strip() != ""]
    data_clean["name"] = data_clean["name"].astype("string")

    data_clean = data_clean[data_clean["age"] > 0]
    data_clean = data_clean[data_clean["age"] <= 120]
    data_clean["age"] = data_clean["age"].astype("int64")

    data_clean = data_clean[data_clean["email"].notna()]
    data_clean = data_clean[data_clean["email"].str.match(r"^[a-zA-Z0-9_.+-]+@[a-zA-Z0-9-]+\.[a-zA-Z0-9-.]+#34;)]
    data_clean["email"] = data_clean["email"].astype("string")

    data_clean = data_clean.reset_index(drop=True)

    try:
        validated_df = schema.validate(data_clean, lazy=True)
        print("数据处理成功!")
        return validated_df
    except pa.errors.SchemaErrors as e:
        print("清洗后验证失败,错误如下:")
        print(e.failure_cases[['column', 'check', 'failure_case', 'index']])
        return None

# 测试管道
print("\n测试管道:")
final_df = process_data(data, schema)
print("最终处理后的 DataFrame:")
print(final_df)

输出:

测试管道:
数据处理成功!
最终处理后的 DataFrame:
   customer_id    name  age             email
0            1  Maryam   25    mrym@gmail.com
1            4   Alice   45  alice@google.com

结论

Pandera 是保障 pandas 数据工作流数据质量的强大工具。通过定义 schema,你能及早发现错误,强制执行数据一致性,并自动化数据清洗。本文你学到了:

  • 安装 Pandera 并设置样例数据集
  • 定义包含类型和约束规则的 schema
  • 验证数据并定位问题
  • 清洗数据以符合 schema
  • 再次验证清洗后的数据
  • 构建可复用的数据处理管道

Pandera 还支持更复杂的验证场景,例如基于类的 schema、跨字段校验、局部校验等,详情可参见官方 Pandera 文档。

相关推荐

阿里云国际站ECS:阿里云ECS如何提高网站的访问速度?

TG:@yunlaoda360引言:速度即体验,速度即业务在当今数字化的世界中,网站的访问速度已成为决定用户体验、用户留存乃至业务转化率的关键因素。页面加载每延迟一秒,都可能导致用户流失和收入损失。对...

高流量大并发Linux TCP性能调优_linux 高并发网络编程

其实主要是手里面的跑openvpn服务器。因为并没有明文禁p2p(哎……想想那么多流量好像不跑点p2p也跑不完),所以造成有的时候如果有比较多人跑BT的话,会造成VPN速度急剧下降。本文所面对的情况为...

性能测试100集(12)性能指标资源使用率

在性能测试中,资源使用率是评估系统硬件效率的关键指标,主要包括以下四类:#性能测试##性能压测策略##软件测试#1.CPU使用率定义:CPU处理任务的时间占比,计算公式为1-空闲时间/总...

Linux 服务器常见的性能调优_linux高性能服务端编程

一、Linux服务器性能调优第一步——先搞懂“看什么”很多人刚接触Linux性能调优时,总想着直接改配置,其实第一步该是“看清楚问题”。就像医生看病要先听诊,调优前得先知道服务器“哪里...

Nginx性能优化实战:手把手教你提升10倍性能!

关注△mikechen△,十余年BAT架构经验倾囊相授!Nginx是大型架构而核心,下面我重点详解Nginx性能@mikechen文章来源:mikechen.cc1.worker_processe...

高并发场景下,Spring Cloud Gateway如何抗住百万QPS?

关注△mikechen△,十余年BAT架构经验倾囊相授!大家好,我是mikechen。高并发场景下网关作为流量的入口非常重要,下面我重点详解SpringCloudGateway如何抗住百万性能@m...

Kubernetes 高并发处理实战(可落地案例 + 源码)

目标场景:对外提供HTTPAPI的微服务在短时间内收到大量请求(例如每秒数千至数万RPS),要求系统可弹性扩容、限流降级、缓存减压、稳定运行并能自动恢复。总体思路(多层防护):边缘层:云LB...

高并发场景下,Nginx如何扛住千万级请求?

Nginx是大型架构的必备中间件,下面我重点详解Nginx如何实现高并发@mikechen文章来源:mikechen.cc事件驱动模型Nginx采用事件驱动模型,这是Nginx高并发性能的基石。传统...

Spring Boot+Vue全栈开发实战,中文版高清PDF资源

SpringBoot+Vue全栈开发实战,中文高清PDF资源,需要的可以私我:)SpringBoot致力于简化开发配置并为企业级开发提供一系列非业务性功能,而Vue则采用数据驱动视图的方式将程序...

Docker-基础操作_docker基础实战教程二

一、镜像1、从仓库获取镜像搜索镜像:dockersearchimage_name搜索结果过滤:是否官方:dockersearch--filter="is-offical=true...

你有空吗?跟我一起搭个服务器好不好?

来人人都是产品经理【起点学院】,BAT实战派产品总监手把手系统带你学产品、学运营。昨天闲的没事的时候,随手翻了翻写过的文章,发现一个很严重的问题。就是大多数时间我都在滔滔不绝的讲理论,却很少有涉及动手...

部署你自己的 SaaS_saas如何部署

部署你自己的VPNOpenVPN——功能齐全的开源VPN解决方案。(DigitalOcean教程)dockovpn.io—无状态OpenVPNdockerized服务器,不需要持久存储。...

Docker Compose_dockercompose安装

DockerCompose概述DockerCompose是一个用来定义和管理多容器应用的工具,通过一个docker-compose.yml文件,用YAML格式描述服务、网络、卷等内容,...

京东T7架构师推出的电子版SpringBoot,从构建小系统到架构大系统

前言:Java的各种开发框架发展了很多年,影响了一代又一代的程序员,现在无论是程序员,还是架构师,使用这些开发框架都面临着两方面的挑战。一方面是要快速开发出系统,这就要求使用的开发框架尽量简单,无论...

Kubernetes (k8s) 入门学习指南_k8s kubeproxy

Kubernetes(k8s)入门学习指南一、什么是Kubernetes?为什么需要它?Kubernetes(k8s)是一个开源的容器编排系统,用于自动化部署、扩展和管理容器化应用程序。它...

取消回复欢迎 发表评论: