面对复杂数据,Pandas 如何助力数据清洗工作?
off999 2025-06-10 17:28 5 浏览 0 评论
在数据分析和机器学习领域,数据清洗是至关重要的前置环节。高质量的数据是得出准确分析结论和构建有效模型的基石,而原始数据往往包含缺失值、重复值、异常值以及错误的数据格式等问题。Pandas 作为 Python 的核心数据分析支持库,提供了快速、灵活、明确的数据结构,旨在简单、直观地处理关系型、标记型数据,是数据清洗的得力工具。
一、Pandas 基础入门
Pandas 是 Python 的核心数据分析支持库,提供了快速、灵活、明确的数据结构,简单直观地处理关系型、标记型数据。在使用 Pandas 进行数据清洗前,需先导入 Pandas 库,通常别名为pd:
import pandas as pd
(一)数据读取
Pandas 支持读取多种常见格式的数据,如 CSV、Excel、SQL 等。以读取 CSV 文件为例:
df = pd.read_csv('data.csv')
这里的data.csv是文件名,实际使用时需替换为真实的文件名及路径。读取后,可使用head()方法查看数据的前几行,默认前 5 行:
df.head()
(二)数据基本信息查看
查看数据的基本信息有助于了解数据的结构和特征,如列的数据类型、缺失值情况等。使用info()方法:
df.info()
使用describe()方法查看数值型列的统计信息,包括计数、均值、标准差、最小值、25% 分位数、50% 分位数、75% 分位数和最大值:
df.describe()
二、处理缺失值
缺失值是数据中常见的问题,可能影响分析结果的准确性。Pandas 提供了丰富的方法来处理缺失值。
(一)检测缺失值
使用isnull()或isna()方法检测数据中的缺失值,这两个方法功能相同,返回一个布尔类型的 DataFrame,其中缺失值对应的位置为True,非缺失值对应的位置为False。结合sum()方法可统计每列的缺失值数量:
import pandas as pd
# 创建示例数据
data = {
'A': [1, None, 3],
'B': [4, 5, None],
'C': [7, 8, 9]
}
df = pd.DataFrame(data)
# 检测缺失值并统计数量
missing_values = df.isnull().sum()
print(missing_values)
运行结果:
A 1
B 1
C 0
dtype: int64
(二)删除缺失值
通过dropna()方法删除含有缺失值的行或列。axis=0(默认值)表示删除行,axis=1表示删除列。how='any'(默认值)表示只要有一个缺失值就删除,how='all'表示全部为缺失值才删除。
# 删除含有缺失值的行
df_dropped_rows = df.dropna(axis=0, how='any')
print(df_dropped_rows)
# 删除含有缺失值的列
df_dropped_columns = df.dropna(axis=1, how='any')
print(df_dropped_columns)
删除行的运行结果:
A B C
2 3 5 9
删除列的运行结果:
C
0 7
1 8
2 9
(三)填充缺失值
使用fillna()方法填充缺失值,可以填充固定值、均值、中位数、众数等,也可以使用前向填充(ffill)或后向填充(bfill)。
# 填充固定值0
df_filled_constant = df.fillna(0)
print(df_filled_constant)
# 用均值填充数值型列的缺失值
df['A'] = df['A'].fillna(df['A'].mean())
df['B'] = df['B'].fillna(df['B'].mean())
print(df)
# 前向填充
df_ffilled = df.fillna(method='ffill')
print(df_ffilled)
# 后向填充
df_bfilled = df.fillna(method='bfill')
print(df_bfilled)
填充固定值 0 的运行结果:
A B C
0 1.0 4.0 7
1 0.0 5.0 8
2 3.0 0.0 9
用均值填充数值型列缺失值的运行结果(假设均值计算结果为:A 列均值 2.0,B 列均值 4.5):
A B C
0 1.0 4.0 7
1 2.0 5.0 8
2 3.0 4.5 9
前向填充的运行结果:
A B C
0 1.0 4.0 7
1 1.0 5.0 8
2 3.0 5.0 9
后向填充的运行结果:
A B C
0 1.0 4.0 7
1 3.0 5.0 8
2 3.0 9.0 9
三、处理重复值
重复值会占用额外的存储空间,影响数据分析的效率和准确性,需要进行处理。
(一)检测重复值
使用duplicated()方法检测数据中的重复行,返回一个布尔类型的 Series,其中重复行对应的位置为True,非重复行对应的位置为False。
import pandas as pd
# 创建示例数据
data = {
'A': [1, 2, 2, 3],
'B': [4, 5, 5, 6]
}
df = pd.DataFrame(data)
# 检测重复值
duplicate_rows = df.duplicated()
print(duplicate_rows)
运行结果:
0 False
1 False
2 True
3 False
dtype: bool
(二)删除重复值
通过drop_duplicates()方法删除重复行,默认保留首次出现的行,可通过keep='last'参数保留最后一次出现的行,还可通过subset参数指定基于某些列来判断重复。
# 删除重复行,保留首次出现的行
df_dropped_duplicates = df.drop_duplicates(keep='first')
print(df_dropped_duplicates)
# 删除重复行,保留最后一次出现的行
df_dropped_duplicates_last = df.drop_duplicates(keep='last')
print(df_dropped_duplicates_last)
# 基于'A'列判断重复并删除
df_dropped_duplicates_subset = df.drop_duplicates(subset=['A'], keep='first')
print(df\_dropped\_duplicates\_subset)
保留首次出现行的运行结果:
A B
0 1 4
1 2 5
3 3 6
保留最后一次出现行的运行结果:
A B
0 1 4
2 2 5
3 3 6
基于 'A' 列判断重复并删除的运行结果:
A B
0 1 4
1 2 5
3 3 6
四、数据类型转换
在数据分析过程中,有时需要将数据转换为合适的数据类型,以满足分析需求或避免类型错误。Pandas 提供了astype()方法用于数据类型转换。
import pandas as pd
# 创建示例数据
data = {
'A': ['1', '2', '3'],
'B': [4.5, 5.6, 6.7]
}
df = pd.DataFrame(data)
# 将'A'列从字符串类型转换为整型
df['A'] = df['A'].astype(int)
print(df)
# 将'B'列从浮点型转换为整型(会截断小数部分)
df['B'] = df['B'].astype(int)
print(df)
将 'A' 列从字符串类型转换为整型的运行结果:
A B
0 1 4.5
1 2 5.6
2 3 6.7
将 'B' 列从浮点型转换为整型的运行结果:
A B
0 1 4
1 2 5
2 3 6
五、处理异常值
异常值是指与其他数据明显不同的数据点,可能是由于数据录入错误、测量误差或其他原因导致的。异常值可能会对数据分析和模型训练产生较大影响,需要进行处理。
(一)基于统计方法识别异常值
通过计算数据的统计指标,如均值、标准差、分位数等,来识别异常值。例如,使用 3σ 原则,数据的数值分布几乎全部集中在区间 (μ - 3σ, μ + 3σ) 内,超出这个范围的数据仅占不到 0.3%,可认为超出 3σ 的部分数据为异常数据。
import pandas as pd
import numpy as np
# 创建示例数据
data = {
'A': [1, 2, 3, 4, 100]
}
df = pd.DataFrame(data)
# 计算均值和标准差
mean = df['A'].mean()
std = df['A'].std()
# 计算异常值的阈值
lower_bound = mean - 3 * std
upper_bound = mean + 3 * std
# 识别异常值
outliers = df[(df['A'] < lower_bound) | (df['A'] > upper_bound)]
print(outliers)
运行结果:
A
4 100
(二)替换异常值
识别出异常值后,可以根据具体情况进行处理,如替换为指定的值、均值、中位数等。
# 将异常值替换为均值
df['A'] = df['A'].apply(lambda x: mean if (x < lower_bound) | (x > upper_bound) else x)
print(df)
运行结果:
A
0 1.0
1 2.0
2 3.0
3 4.0
4 3.0
六、数据格式化
数据格式化是指对数据的格式进行调整和规范,使其更易于分析和处理。常见的数据格式化操作包括重命名列和索引、字符串处理等。
(一)重命名列和索引
使用rename()方法重命名列和索引,使数据集的名称更直观,提升数据操作的便捷性和准确性。
import pandas as pd
# 创建示例数据
data = {
'col1': [1, 2, 3],
'col2': [4, 5, 6]
}
df = pd.DataFrame(data)
# 重命名列
df = df.rename(columns={'col1': 'new_col1', 'col2': 'new_col2'})
print(df)
# 重命名索引
df = df.rename(index={0: 'new_index0', 1: 'new_index1', 2: 'new_index2'})
print(df)
重命名列的运行结果:
new_col1 new_col2
0 1 4
1 2 5
2 3 6
重命名索引的运行结果:
new_col1 new_col2
new_index0 1 4
new_index1 2 5
new_index2 3 6
(二)字符串处理
对于字符串类型的列,可使用str方法进行各种字符串操作,如转换为小写、大写,去除两端空格,分割字符串等。
import pandas as pd
# 创建示例数据
data = {
'name': [' John Doe ', 'Jane Smith']
}
df = pd.DataFrame(data)
# 去除字符串两端的空格
df['name'] = df['name'].str.strip()
print(df)
# 转换为小写
df['name'] = df['name'].str.lower()
print(df)
去除字符串两端空格的运行结果:
name
0 John Doe
1 Jane Smith
转换为小写的运行结果:
name
0 john doe
1 jane smith
七、总结
数据清洗是数据分析和机器学习的重要环节,Pandas 提供了丰富、强大的工具和方法来处理各种数据清洗任务。通过掌握 Pandas 的数据清洗技巧,能够有效地提高数据质量,为后续的数据分析和建模工作奠定坚实的基础。在实际应用中,需要根据数据的特点和分析需求,灵活选择合适的数据清洗方法和策略。同时,不断积累实践经验,提高数据清洗的效率和准确性。
相关推荐
- 用 Pandera 高效验证和清洗 Pandas 数据集——实用分步指南
-
当我们处理数据时,确保数据不脏、不无效非常重要——比如检查空值、缺失值,或某列类型不允许的数字。这些检查至关重要,因为劣质数据会导致错误分析、模型失败,并浪费大量时间和资源。你可能已经用传统的Pan...
- 【项目实践】利用Pandas进行数据读取、清洗和分析的全方位指南
-
目录一、数据读取和写入1.1CSV和txt文件:1.2Excel文件:1.3MYSQL数据库:二、数据清洗2.1清除不需要的行数据2.2清除不需要的列2.3调整列的展示顺序或列标签名2.4...
- 不用VBA!用Excel自带Python秒杀数据清洗,效率怒涨10倍!
-
还在为Excel函数不够用发愁?其实微软早偷偷内置了Python引擎!无需安装插件,直接调用pandas/numpy处理百万级数据,职场人最后的救命神器!一、为什么Excel+Python是王炸组合?...
- Python 数据清洗中不得不说的事!(用python清洗数据)
-
在Python中无论爬虫也好,数据分析也好,首先需要数据清洗,Python中有许多库可以帮助我们轻松搞定!正则表达式(RegularExpression)正则表达式是一种强大的字符串匹配工具,可...
- 数据分析——清洗数据(数据清洗思路)
-
数据分析中清洗数据是确保数据质量和可靠性的关键步骤,通常包括以下方法步骤:1.数据评估与理解目标:了解数据的基本情况,明确清洗方向。检查数据概况:查看字段名、数据类型、样本分布、缺失值比例等。统计描...
- 面对复杂数据,Pandas 如何助力数据清洗工作?
-
在数据分析和机器学习领域,数据清洗是至关重要的前置环节。高质量的数据是得出准确分析结论和构建有效模型的基石,而原始数据往往包含缺失值、重复值、异常值以及错误的数据格式等问题。Pandas作为Pyt...
- Python 的 enumerate 函数:遍历中的索引神器
-
对话实录小白:(苦恼)我在遍历列表时,想知道每个元素的位置,只能用个计数器变量,好繁琐,有没有更简单的办法?专家:(掏出法宝)用enumerate函数,遍历同时获取索引,轻松解决你的困扰!enumer...
- python zip函数可以实现同时遍历多列表,以及矩阵转置等
-
zip函数是Python的内置函数,用于将多个可迭代对象中对应位置的元素打包成元组,并返回一个由这些元组组成的迭代器。概念看不懂没关系,我们来举个简单例子。比如有两个列表x=["a"...
- Python快速入门教程7:循环语句(python循环语句怎么用)
-
一、循环语句简介循环语句用于重复执行一段代码块,直到满足特定条件为止。Python支持两种主要的循环结构:for循环和while循环。二、for循环基本语法for循环用于遍历序列(如列表、元组、字符串...
- 使用Python 获取多级字典(Json)格式所有Key、Value
-
在编程数据处理时,经常能碰到多级包含多类型的字典,例如下图:客户要求取到所有根部key,value并写入DataFrame中,下面用我的方法来实现:#新建存放key,value的数组data=[...
- Python列表创建操作与遍历指南(列表的创建python)
-
Python列表全方位解析:创建、操作、删除与遍历的全面指南列表(List)是Python中最灵活且常用的数据结构之一,支持动态增删元素、混合数据类型存储以及高效的遍历操作。以下从创建、操作、...
- python入门到脱坑 结构语句—— 循环语句while 循环
-
以下是Python中while循环的详细入门讲解,包含基础语法、控制方法和实用技巧:一、while循环基础1.基本语法while条件:#条件为True时重复执行的代码#.....
- 全网最详尽的Python遍历的高级用法,程序员必收藏!
-
1.内置函数的高阶用法。numbers=[1,2,3,4]squared=list(map(lambdax:x**2,numbers))#[1,4,9,16]```-*...
- 在Python中遍历列表的方法有哪些(python遍历怎么写)
-
Python中遍历列表有以下几种方法:一、for循环遍历lists=["m1",1900,"m2",2000]foriteminlists:print(item)lists=...
- 99% 教程不会讲的技巧,Python 字典推导式终极指南,小白也能秒懂
-
字典推导式详解:从基础到进阶1.什么是字典推导式?字典推导式是Python中创建字典的一种高效语法,它允许你在一行代码内完成循环、条件判断和字典构建。为什么需要字典推导式?传统方法创建字典需要多...
你 发表评论:
欢迎- 一周热门
- 最近发表
-
- 用 Pandera 高效验证和清洗 Pandas 数据集——实用分步指南
- 【项目实践】利用Pandas进行数据读取、清洗和分析的全方位指南
- 不用VBA!用Excel自带Python秒杀数据清洗,效率怒涨10倍!
- Python 数据清洗中不得不说的事!(用python清洗数据)
- 数据分析——清洗数据(数据清洗思路)
- 面对复杂数据,Pandas 如何助力数据清洗工作?
- Python 的 enumerate 函数:遍历中的索引神器
- python zip函数可以实现同时遍历多列表,以及矩阵转置等
- Python快速入门教程7:循环语句(python循环语句怎么用)
- 使用Python 获取多级字典(Json)格式所有Key、Value
- 标签列表
-
- python计时 (73)
- python安装路径 (56)
- python类型转换 (93)
- python自定义函数 (53)
- python进度条 (67)
- python吧 (67)
- python字典遍历 (54)
- python的for循环 (56)
- python串口编程 (60)
- python读取文件夹下所有文件 (59)
- java调用python脚本 (56)
- python操作mysql数据库 (66)
- python字典增加键值对 (53)
- python获取列表的长度 (64)
- python接口 (63)
- python调用函数 (57)
- python人脸识别 (54)
- python多态 (60)
- python命令行参数 (53)
- python匿名函数 (59)
- python打印九九乘法表 (65)
- centos7安装python (53)
- python赋值 (62)
- python异常 (69)
- python元祖 (57)