Python 3中map、filter、range、生成器表达式、zip、enumerate、reversed等内置对象默认惰性执行,返回迭代器,仅在遍历时触发计算或异常。

Python 本身没有原生的“惰性计算”类型,map、filter、range、生成器表达式这些对象是惰性的,但它们的行为取决于具体实现和使用方式——不是语言强制规定,而是设计选择。
哪些内置对象默认惰性执行
Python 3 中以下对象返回迭代器而非立即求值的列表:
-
map(func, iterable)返回map对象(迭代器),不调用func直到第一次next() -
filter(func, iterable)同理,过滤逻辑延迟到遍历时才触发 -
range(1000000)不生成全部整数,只存起点/终点/步长,__contains__和索引访问都按需计算 - 生成器表达式
(x**2 for x in data)比列表推导式[x**2 for x in data]少占内存,且不触发任何计算直到next()
注意:zip、enumerate、reversed 等也返回惰性迭代器。但一旦被 list()、tuple() 或 for 隐式调用,就会开始执行。
为什么 map 不立刻报错,直到取值才崩
这是惰性最典型的副作用:异常延迟抛出。比如:
立即学习“Python免费学习笔记(深入)”;
def bad_div(x):
return 10 / x
it = map(bad_div, [1, 2, 0, 4]) # 此时没报错
next(it) # → 10.0
next(it) # → 5.0
next(it) # → ZeroDivisionError
这种行为在调试时容易误判错误位置。常见于数据管道中上游出错被下游消费时才暴露。解决思路只有两个:
- 加
try/except在生成器内部(如用生成器函数封装) - 用
itertools.islice(it, n)控制提前消费范围,避免全量触发 - 必要时用
list(map(...))强制立即执行并捕获全部异常(但失去内存优势)
自定义惰性计算:生成器函数比类更轻量
写惰性逻辑,优先用 def + yield,而不是手写带 __iter__/__next__ 的类:
def fibonacci():
a, b = 0, 1
while True:
yield a
a, b = b, a + b
fib = fibonacci() # 还没算任何数
next(fib) # → 0
next(fib) # → 1
next(fib) # → 1
关键点:
- 函数体不执行,直到第一次
next();每次yield后暂停,状态保留在栈帧中 - 不能用
return返回值(会触发StopIteration),想传最终结果得靠异常或额外参数 - 如果需要支持
send()、throw(),就得理解协程协议,普通场景没必要
惰性不是万能的:什么时候它反而拖慢你
惰性节省内存,但可能增加 CPU 开销或掩盖资源泄漏:
- 反复遍历同一个生成器?不行——它只能用一次,二次遍历为空。必须重新创建或转成
list - 文件读取用
(line.strip() for line in open('x.txt'))?文件句柄不会自动关闭,应改用with open(...) as f: (line.strip() for line in f) - 链式调用太多层惰性对象(如
map(f, map(g, map(h, data)))),每次next()都要穿透多层__next__,比一次性处理慢 - 小数据量下,惰性带来的函数调用开销 > 内存收益,纯属白忙活
真正该用惰性的场景就两个:数据源极大(如日志流、数据库游标)、或计算代价极高且可能中途终止(如找第一个满足条件的元素)。其余时候,可读性和可控性比“看起来省内存”重要得多。










