0

0

Python NumPy重计算的并行优化:利用数据共享避免性能瓶颈

心靈之曲

心靈之曲

发布时间:2025-09-21 10:02:01

|

556人浏览过

|

来源于php中文网

原创

Python NumPy重计算的并行优化:利用数据共享避免性能瓶颈

本文探讨了Python中对NumPy数组进行大量计算时,tqdm.contrib.concurrent的process_map等并行工具可能出现的性能瓶颈。核心问题在于多进程间的数据拷贝开销过大。教程将详细介绍如何通过multiprocessing.Manager实现数据共享,有效避免重复拷贝,从而显著提升计算效率,实现真正的并行加速。

python中处理大量计算密集型任务,尤其是涉及大型numpy数组的操作时,我们通常会考虑使用多进程或多线程来加速。tqdm.contrib.concurrent库提供了方便的process_map和thread_map函数,结合进度条功能,看似是理想的选择。然而,在某些特定场景下,尤其是当每个任务都涉及处理大型numpy数组时,这些工具的性能可能不升反降,甚至比单线程循环更慢。本文将深入分析这一现象背后的原因,并提供一种有效的解决方案。

1. 并行计算的常见挑战:数据拷贝与GIL

当我们尝试使用process_map或multiprocessing.Pool.map对一个包含大型NumPy数组的迭代器进行并行处理时,一个主要的性能瓶颈往往是进程间通信(IPC)中的数据序列化和反序列化开销。

  • 多进程(process_map):每个新的进程都有自己独立的内存空间。当主进程将任务分配给子进程时,如果任务参数包含大型数据对象(如NumPy数组),这些数据必须被序列化(pickling),通过IPC机制发送给子进程,子进程再反序列化(unpickling)数据进行计算。计算完成后,结果又需要经历类似的反向过程。对于每个任务都重复这一过程,其开销会迅速累积,甚至超过实际的计算时间,导致整体性能下降。
  • 多线程(thread_map):Python的全局解释器锁(GIL)限制了同一时刻只有一个线程能够执行Python字节码。这意味着对于CPU密集型任务,多线程并不能实现真正的并行计算。尽管NumPy等底层C实现的库在执行计算时会释放GIL,但如果任务中包含大量的Python层逻辑或频繁的GIL获取/释放操作,多线程的加速效果也会非常有限,甚至因线程管理的开销而变慢。

2. 问题示例:process_map与thread_map的性能退化

为了直观地展示上述问题,我们创建一个模拟NumPy重计算的场景。calc函数模拟了一个对NumPy矩阵进行多次均值和标准差计算的重任务。

import time
import numpy as np
from tqdm.auto import tqdm
from tqdm.contrib.concurrent import process_map, thread_map

# 模拟生成大型数据集
def mydataset(size, length):
    for ii in range(length):
        yield np.random.rand(*size)

# 模拟重计算函数
def calc(mat):
    # 模拟一些重计算,例如对大型矩阵进行多次统计分析
    for ii in range(1000):
        avg = np.mean(mat)
        std = np.std(mat)
    return avg, std

def main_problematic_example():
    # 生成100个500x500的随机矩阵
    ds = list(mydataset((500, 500), 100))

    print("--- 原始方法性能测试 ---")

    # 1. 单线程for循环
    t0 = time.time()
    res1 = []
    for mat in tqdm(ds, desc="For Loop"):
        res1.append(calc(mat))
    print(f'单线程for循环: {time.time() - t0:.2f}s')

    # 2. 原生map函数
    t0 = time.time()
    res2 = list(map(calc, tqdm(ds, desc="Native Map")))
    print(f'原生map函数: {time.time() - t0:.2f}s')

    # 3. tqdm的process_map
    t0 = time.time()
    res3 = process_map(calc, ds, desc="Process Map")
    print(f'process_map: {time.time() - t0:.2f}s')

    # 4. tqdm的thread_map
    t0 = time.time()
    res4 = thread_map(calc, ds, desc="Thread Map")
    print(f'thread_map: {time.time() - t0:.2f}s')

if __name__ == '__main__':
    main_problematic_example()

运行结果示例(可能因环境而异,但趋势一致):

For Loop: 100%|████████████████████████████████████████████| 100/100 [00:51<00:00,  1.93it/s]
单线程for循环: 51.88s
Native Map: 100%|████████████████████████████████████████████| 100/100 [00:52<00:00,  1.91it/s]
原生map函数: 52.49s
Process Map: 100%|████████████████████████████████████████████| 100/100 [01:10<00:00,  1.41it/s]
process_map: 71.06s
Thread Map: 100%|████████████████████████████████████████████| 100/100 [00:41<00:00,  2.39it/s]
thread_map: 42.04s

从上述结果可以看出,process_map明显慢于单线程循环,而thread_map虽然略有加速,但远未达到理想的多核并行效果。这验证了我们对数据拷贝开销和GIL影响的分析。

立即学习Python免费学习笔记(深入)”;

3. 解决方案:利用multiprocessing.Manager共享数据

为了解决多进程间数据拷贝的性能瓶颈,我们可以使用multiprocessing.Manager来创建共享数据结构。Manager会启动一个单独的服务器进程,管理这些共享对象,其他进程通过代理对象与管理器通信,从而避免了每次任务执行时都进行大规模的数据拷贝。数据只需要在初始化时拷贝一次到管理器进程的内存中。

魔术橡皮擦
魔术橡皮擦

智能擦除、填补背景内容

下载

下面是使用multiprocessing.Manager进行优化的代码示例:

import time
import numpy as np
from multiprocessing import Pool, Manager

# 模拟生成大型数据集
def mydataset(size, length):
    for ii in range(length):
        yield np.random.rand(*size)

# 优化的计算函数:通过索引访问共享数据
def calc_optimized(idx, mat_list):
    # 模拟一些重计算
    for ii in range(1000):
        avg = np.mean(mat_list[idx])  # 从共享列表中获取矩阵
        std = np.std(mat_list[idx])
    return avg, std

def main_optimized_example():
    ds = list(mydataset((500, 500), 100))

    print("\n--- 优化后方法性能测试 ---")

    # 创建一个进程池,通常设置为CPU核心数
    # 为了演示效果,这里使用4个核心
    num_cores = 4 
    mypool = Pool(num_cores)

    # 创建一个Manager实例
    manager = Manager()
    # 将原始数据集转换为Manager管理的共享列表
    # 数据在此处被拷贝到Manager进程的内存中一次
    mylist = manager.list(ds)

    t0 = time.time()
    # 使用starmap,因为它允许我们将多个参数传递给工作函数
    # 这里传递的是数据的索引和共享列表本身
    res_optimized = mypool.starmap(calc_optimized, zip(range(len(ds)), [mylist] * len(ds)))
    print(f"Manager共享内存方式: {time.time() - t0:.2f}s")

    mypool.close()
    mypool.join()
    manager.shutdown() # 关闭管理器

if __name__ == "__main__":
    main_optimized_example()

运行结果示例:

--- 优化后方法性能测试 ---
Manager共享内存方式: 1.94s

通过引入multiprocessing.Manager和共享列表,我们将整个计算时间从71秒(process_map)或51秒(单线程)显著缩短到了不到2秒。这表明,避免重复的数据拷贝是解决NumPy重计算并行性能瓶颈的关键。

4. 注意事项与最佳实践

  • 选择合适的并行策略
    • 对于CPU密集型任务(如NumPy计算),优先考虑multiprocessing,因为它能绕过GIL实现真正的并行。
    • 对于I/O密集型任务(如文件读写、网络请求),threading可能更合适,因为等待I/O时GIL会被释放。
  • 数据共享的开销:multiprocessing.Manager虽然解决了数据拷贝问题,但它本身是一个独立的进程,进程间的通信仍有一定开销。对于非常小的数据块或计算量极轻的任务,这种开销可能不划算。
  • 共享数据结构的选择
    • Manager.list()和Manager.dict()适用于共享Python列表和字典。
    • 对于需要共享原始字节数据或大型NumPy数组,可以考虑multiprocessing.shared_memory模块,它提供了更低级别的共享内存接口,性能可能更高。
    • 内存映射文件(memory-mapped files)也是一种高效的共享大型数据的方式,尤其适用于数据量超出RAM的情况。
  • 进程池管理:使用Pool时,记得调用mypool.close()阻止新任务提交,并调用mypool.join()等待所有任务完成。如果使用了Manager,也应在结束后调用manager.shutdown()来清理资源。
  • 任务粒度:尽量让每个并行任务的计算量足够大,以摊销进程创建、数据传输和结果收集的固定开销。如果任务过小,并行化的收益可能不明显。
  • 避免共享可变状态:在设计并行任务时,应尽量使每个任务无状态,避免多个进程同时修改同一个共享对象,这可能导致竞态条件和难以调试的错误。如果必须共享可变状态,请使用锁(multiprocessing.Lock)或其他同步机制来保护。

总结

在Python中对NumPy数组进行大量计算时,实现有效的并行加速需要特别注意数据在进程间的传递方式。tqdm.contrib.concurrent的process_map虽然方便,但在处理大型NumPy数组时,由于频繁的数据序列化和反序列化开销,其性能可能不尽人意。通过利用multiprocessing.Manager创建共享数据结构,我们可以有效地避免重复的数据拷贝,从而显著提升计算效率,实现真正的多核并行加速。理解并正确应用数据共享策略,是优化Python中NumPy密集型并行任务的关键。

相关文章

数码产品性能查询
数码产品性能查询

该软件包括了市面上所有手机CPU,手机跑分情况,电脑CPU,电脑产品信息等等,方便需要大家查阅数码产品最新情况,了解产品特性,能够进行对比选择最具性价比的商品。

下载

本站声明:本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn

相关专题

更多
python开发工具
python开发工具

php中文网为大家提供各种python开发工具,好的开发工具,可帮助开发者攻克编程学习中的基础障碍,理解每一行源代码在程序执行时在计算机中的过程。php中文网还为大家带来python相关课程以及相关文章等内容,供大家免费下载使用。

720

2023.06.15

python打包成可执行文件
python打包成可执行文件

本专题为大家带来python打包成可执行文件相关的文章,大家可以免费的下载体验。

627

2023.07.20

python能做什么
python能做什么

python能做的有:可用于开发基于控制台的应用程序、多媒体部分开发、用于开发基于Web的应用程序、使用python处理数据、系统编程等等。本专题为大家提供python相关的各种文章、以及下载和课程。

744

2023.07.25

format在python中的用法
format在python中的用法

Python中的format是一种字符串格式化方法,用于将变量或值插入到字符串中的占位符位置。通过format方法,我们可以动态地构建字符串,使其包含不同值。php中文网给大家带来了相关的教程以及文章,欢迎大家前来阅读学习。

617

2023.07.31

python教程
python教程

Python已成为一门网红语言,即使是在非编程开发者当中,也掀起了一股学习的热潮。本专题为大家带来python教程的相关文章,大家可以免费体验学习。

1236

2023.08.03

python环境变量的配置
python环境变量的配置

Python是一种流行的编程语言,被广泛用于软件开发、数据分析和科学计算等领域。在安装Python之后,我们需要配置环境变量,以便在任何位置都能够访问Python的可执行文件。php中文网给大家带来了相关的教程以及文章,欢迎大家前来学习阅读。

547

2023.08.04

python eval
python eval

eval函数是Python中一个非常强大的函数,它可以将字符串作为Python代码进行执行,实现动态编程的效果。然而,由于其潜在的安全风险和性能问题,需要谨慎使用。php中文网给大家带来了相关的教程以及文章,欢迎大家前来学习阅读。

575

2023.08.04

scratch和python区别
scratch和python区别

scratch和python的区别:1、scratch是一种专为初学者设计的图形化编程语言,python是一种文本编程语言;2、scratch使用的是基于积木的编程语法,python采用更加传统的文本编程语法等等。本专题为大家提供scratch和python相关的文章、下载、课程内容,供大家免费下载体验。

700

2023.08.11

php源码安装教程大全
php源码安装教程大全

本专题整合了php源码安装教程,阅读专题下面的文章了解更多详细内容。

74

2025.12.31

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
最新Python教程 从入门到精通
最新Python教程 从入门到精通

共4课时 | 0.6万人学习

Django 教程
Django 教程

共28课时 | 2.7万人学习

SciPy 教程
SciPy 教程

共10课时 | 1.0万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号