Python multiprocessing.Pool默认采用预分发策略,任务按chunksize切块分配,非动态负载均衡;建议小任务设chunksize=1,或改用ProcessPoolExecutor逐个提交以提升均衡性。

Python的multiprocessing.Pool默认采用“预分发(pre-distribution)+ 阻塞式取任务”策略,不是动态负载均衡,任务在启动时就大致分配给各工作进程,实际执行节奏受进程间通信和任务耗时影响较大。
默认调度:任务提前切片,非实时负载感知
调用pool.map()或pool.apply_async()批量提交时,Pool会将任务列表按chunksize切分成若干块,每个工作进程领取一块(而非单个任务)。这意味着:
- 若某块中包含一个超长任务,该进程会被长时间占用,其余进程可能已空闲
- 短任务和长任务混杂时,容易出现“木桶效应”,整体完成时间由最慢的一块决定
-
chunksize默认值为len(tasks) // (4 * processes)(向上取整),小任务建议手动设为1,大任务可适当增大以减少IPC开销
手动控制分发节奏:用apply_async + 回调模拟动态派发
若需更均衡的调度(例如任务耗时差异大、或需运行时决策),应避免map,改用循环提交+回调管理:
- 每次只提交1个任务,通过
apply_async(func, args, callback=done_handler)异步发起 - 在
callback中触发下一轮提交,形成“有空即派”的节拍 - 配合
queue.Queue或线程安全计数器,可实现限流、优先级或依赖调度
进阶替代方案:考虑concurrent.futures.ProcessPoolExecutor
标准库中的ProcessPoolExecutor底层仍基于multiprocessing,但API更现代,且对单任务提交更友好:
立即学习“Python免费学习笔记(深入)”;
-
submit()天然支持逐个提交,无chunk概念,调度粒度更细 - 配合
as_completed()可按完成顺序处理结果,便于实现响应式逻辑 - 若需更高灵活性(如进程生命周期管理、自定义队列、失败重试),可结合
asyncio+multiprocessing自行封装调度器
关键提醒:避免常见误用
调度效果受限于实际使用方式:
- 勿在子进程中再创建Pool(会引发fork死锁或资源泄漏)
- 传入Pool的任务函数必须可被pickle序列化,闭包、lambda、类实例方法需额外处理
- 大量小任务配大
chunksize会导致内存占用突增;反之过小则IPC开销占比过高 - Windows平台注意主模块保护(
if __name__ == '__main__':),否则子进程无法正确导入任务函数










