pandas高频痛点包括:loc+apply比原生方法慢因Python循环vs底层向量化;read_csv数值列变object因隐藏字符,需dtype=str后清洗;groupby.agg列名嵌套需命名聚合展平;inplace=True在链式调用中失效且已弃用。

pandas 时遇到的卡点——比如为什么 df.groupby().apply() 慢得离谱、为什么 inplace=True 有时没效果、为什么 pd.read_csv() 读出来的列类型不对。
下面直奔几个高频实战痛点:
为什么 df.loc[:, 'col'].apply() 比 df['col'].str.contains() 慢几十倍
本质是 Python 层循环 vs C/Fortran 底层向量化。只要 pandas 提供了原生字符串/数值方法,就别手写 apply。
-
str.contains()、str.split()、dt.year等都走底层优化路径,自动跳过 NaN,无需na=False显式处理(但要注意默认返回NaN而非False) -
apply强制触发 Python 解释器逐行调用,哪怕函数只做str.upper(),也比str.upper()原生方法慢 5–20 倍 - 真要自定义逻辑又想提速?改用
np.where()或pd.cut()+ 条件表达式,或者导出为numpy数组后用numba.jit
pd.read_csv() 读取后数值列变成 object 类型,且无法用 astype(float) 转换
典型症状是报错 ValueError: could not convert string to float,根源几乎全是隐藏字符或混合类型数据。
- 先用
df['col'].apply(type).unique()看真实类型,常会发现str和float并存 - 加参数
dtype={'col': 'string'}强制读为字符串,再用str.replace(r'[^0-9.-]', '', regex=True)清洗,最后astype(float) - 更稳的做法是
pd.read_csv(..., dtype=str, keep_default_na=False),彻底关闭自动 NA 推断,自己用replace({'': np.nan})控制空值
groupby().agg() 返回列名丢失或嵌套混乱
这是 pandas 0.25+ 版本后多级列名(MultiIndex)的副作用。不指定 as_index=False 或不重命名,结果列会变成元组形式。
df.groupby('category').agg({'price': 'mean', 'qty': ['sum', 'count']})
输出列名为 ('price', 'mean') 和 ('qty', 'sum') ——这不是 bug,是设计。但后续操作容易报 KeyError。
立即学习“Python免费学习笔记(深入)”;
- 加
as_index=False可保持单层列名,但仅限于聚合结果是标量(如mean) - 更通用的是用命名聚合:
.agg(price_mean=('price', 'mean'), qty_sum=('qty', 'sum')),直接生成扁平列名 - 若已产生 MultiIndex 列,用
df.columns = ['_'.join(col).strip() for col in df.columns.values]快速展平
inplace=True 在链式调用中失效,且不报错
这是最隐蔽的坑:df.dropna().inplace=True 实际上等于 None.inplace = True,因为 dropna() 返回新对象,左侧赋值前已经丢弃。
-
inplace=True只对直接作用于原变量的操作有效,例如df.dropna(inplace=True) - 所有带
.链式调用(df.sort_values().dropna())都不支持inplace,它只作用于上一步返回的对象,而那个对象没被变量引用 - 官方已标记
inplace参数为 deprecated,2.0+ 版本逐步移除。现在应统一用赋值:df = df.dropna()
pd.concat([df1, df2], ignore_index=True) 看似重置索引,但如果其中一个 df 的索引是 DatetimeIndex,结果可能变成 object 类型——这种细节,文档不会加粗,只能靠踩过才记得住。










