使用 concurrent.futures 模块中的 ThreadPoolExecutor 可以轻松实现多线程文件拆分:计算每个 chunk 的大小。创建一个线程池。对于每个 chunk,创建一个拆分任务,并将其添加到 futures 列表中。获取每个任务的进度更新,并根据进度更新进度条。将每个 chunk 写入新的文件中。

Python 多线程拆分文件并显示进度条
问题:如何在 Python 中使用多线程拆分大文件并显示进度条?
回答:
采用 php+mysql 数据库方式运行的强大网上商店系统,执行效率高速度快,支持多语言,模板和代码分离,轻松创建属于自己的个性化用户界面 v3.5更新: 1).进一步静态化了活动商品. 2).提供了一些重要UFT-8转换文件 3).修复了除了网银在线支付其它支付显示错误的问题. 4).修改了LOGO广告管理,增加LOGO链接后主页LOGO路径错误的问题 5).修改了公告无法发布的问题,可能是打压
使用 concurrent.futures 模块中的 ThreadPoolExecutor 我们可以轻松实现多线程文件拆分:
立即学习“Python免费学习笔记(深入)”;
import concurrent.futures
import os
def split_file(filepath, n_chunks):
# 计算每个 chunk 的大小
chunk_size = os.path.getsize(filepath) // n_chunks
# 创建一个线程池
with concurrent.futures.ThreadPoolExecutor() as executor:
# 创建一个 futures 列表来跟踪每个 chunk 的拆分任务
futures = []
# 对于每个 chunk,创建一个拆分任务
for i in range(n_chunks):
start = i * chunk_size
end = start + chunk_size
futures.append(executor.submit(
_split_chunk, filepath, i, start, end
))
# 获取每个 chunk 拆分任务的进度更新
for future in concurrent.futures.as_completed(futures):
# 获取进度百分比
progress = future.result()
# 更新进度条
update_progress(progress)
def _split_chunk(filepath, chunk_index, start, end):
with open(filepath, "rb") as f:
# 跳转到 chunk 的开始位置
f.seek(start)
# 读取 chunk 的内容
data = f.read(end - start)
# 将 chunk 写入新的文件中
with open(f"chunk_{chunk_index}.txt", "wb") as out:
out.write(data)
# 计算进度百分比
progress = (chunk_index + 1) / n_chunks * 100
return round(progress, 2)
def update_progress(progress):
# 更新进度条的实现细节,如使用 tqdm 或 curses
# 这里为了演示,我们直接打印在控制台上
print(f"Progress: {progress}%")










