使用iterparse流式解析XML,及时调用clear()释放内存,监听start/end事件按需提取字段,避免加载全量树结构,结合生成器和XPath提升效率。

用 xml.etree.ElementTree.iterparse 或 lxml.iterparse 流式解析,边读边处理,不加载整个文件到内存。
用 iterparse 增量解析,避免内存爆炸
标准库的 xml.etree.ElementTree.iterparse 支持边读取边触发事件(start/end),适合 GB 级 XML。关键点是及时调用 elem.clear() 释放已处理节点的内存,并用 root.clear() 防止根节点累积子元素。
- 只监听
"end"事件处理完整标签,或监听"start"提前获取属性 - 遇到目标标签(如
)时提取数据,立刻清空其子树 - 不要用
tree.getroot(),它会强制加载全部内容
用 lxml.iterparse 获得更高性能和更多控制
lxml 的 iterparse 更快、更稳定,支持命名空间、取消解析、指定 parser 等。安装后可直接替换标准库用法:
- 设置
events=("start", "end")和tag="item"精准捕获目标节点 - 用
parser.resolvers处理外部实体(如有),避免意外加载远程资源 - 对超大文件,配合
huge_tree=True参数绕过默认大小限制
按需提取字段,不构造完整对象树
GB 级 XML 往往结构重复(如日志、订单、气象记录)。不要把每个节点转成 dict 或 class 实例——这会倍增内存。推荐做法:
立即学习“Python免费学习笔记(深入)”;
- 在
end事件中,用elem.text、elem.attrib直接取值 - 用生成器函数 yield 解析结果,供后续管道处理(如写入 CSV、入库、统计)
- 若需 XPath 查询,用
lxml.etree.XPath编译一次,反复执行,避免每次解析
配合文件分块或并行(谨慎使用)
XML 是严格嵌套结构,不能像文本一样随意切分。但可考虑:
- 先用流式方式定位到多个顶层同级节点(如数百万个
),把它们的起始偏移记下,再用多进程分别解析片段(需确保每个片段是合法 XML 子树) - 更稳妥的做法是单进程流式解析 + 多线程处理业务逻辑(如清洗、HTTP 请求),用
queue.Queue解耦 I/O 和计算 - 避免用
multiprocessing直接 fork 解析器,lxml 的 parser 不跨进程安全










