批量处理文件需兼顾高效、健壮与可复用:用glob+pathlib安全遍历,try/except单文件容错,pandas.concat合并CSV并分块读取,tqdm添加进度反馈,joblib并行加速I/O密集任务。

批量处理文件是机器学习项目中高频且刚需的操作——读取成百上千张图片、加载多个CSV特征表、统一清洗日志文本,都绕不开它。关键不在“会不会写for循环”,而在于高效、健壮、可复用:避免内存爆掉、跳过损坏文件、自动识别编码、按需分块加载。
别再硬写os.listdir()拼路径了。glob支持通配符,pathlib让路径操作直观又跨平台:
Path("data/images").glob("*.jpg")代替os.listdir() + 字符串判断后缀.resolve()自动展开相对路径和符号链接,防止后续open报错try/except包裹单个文件处理逻辑,出错只跳过当前文件,不中断整个批次100个同结构CSV?别一个个pd.read_csv再append。concat能一次对齐列、自动忽略缺失列、控制索引:
dfs = [pd.read_csv(f) for f in files]pd.concat(dfs, ignore_index=True, sort=False)合并;ignore_index重置行号,sort=False避免列名自动排序打乱顺序chunksize参数分块读取,边读边concat,省内存处理几千个文件时,光等没反馈容易误判卡死。tqdm一行就能嵌入任何迭代器:
立即学习“Python免费学习笔记(深入)”;
for f in files:为for f in tqdm(files, desc="Processing"):chunksize,在内层循环也套tqdm,显示“已读XX块/共YY块”leave=False让子任务进度条不残留,界面更清爽单核读文件太慢?硬盘或网络I/O不占CPU,多进程正合适(注意:不是所有场景都适合并行):
Parallel(n_jobs=4)(delayed(process_file)(f) for f in files)替代for循环process_file必须可被pickle序列化(别用lambda、嵌套函数)基本上就这些——不复杂但容易忽略。真正跑通一个批量流程,比调参还让人踏实。
以上就是Python快速掌握机器学习中批量文件处理技巧【教程】的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号