
Python 处理 IO 密集型任务时,用同步方式容易卡在等待网络响应、文件读写或数据库查询上,CPU 空转,效率低。真正有效的解法不是靠多线程硬扛(GIL 限制下效果有限),而是用异步 I/O —— 让单线程在等待时立刻切换去干别的事,等 IO 完成再回来继续。
asyncio + await 是现代 Python 异步的基石
Python 3.7+ 中,asyncio 是标准库提供的异步运行时,async/await 是声明和驱动协程的语法。它不启动新线程,而是在一个线程内通过事件循环调度多个协程,实现高并发 IO。
- 用 async def 定义协程函数,调用后返回协程对象,不会立即执行
- 必须在 asyncio.run() 或事件循环中用 await 才会真正运行并挂起等待
- 所有可能阻塞的操作(如 HTTP 请求、文件读写)必须使用支持异步的库,比如 aiohttp(代替 requests)、aiosqlite(代替 sqlite3)、asyncio.open()(代替 open())
别用 time.sleep(),改用 asyncio.sleep()
这是新手最常踩的坑:在协程里写 time.sleep(2),整个事件循环就卡住 2 秒,所有其他协程都得等。正确做法是用 await asyncio.sleep(2) —— 它会把控制权交还给事件循环,让其他协程得以运行。
类似地,任何同步阻塞调用(如普通 requests.get、json.loads 大文件、正则匹配超长文本)都会拖慢整个异步流程。需要评估是否可替换为异步等价方案,或用 loop.run_in_executor() 把 CPU 密集或无法异步化的操作扔进线程池执行。
立即学习“Python免费学习笔记(深入)”;
并发请求:gather 比 for 循环快得多
想并发发 10 个 HTTP 请求?写 10 次 await 是串行的。应该把协程对象打包,用 await asyncio.gather(*coros) 并发触发:
import asyncio import aiohttpasync def fetch(session, url): async with session.get(url) as resp: return await resp.text()
async def main(): urls = ["https://www.php.cn/link/5f69e19efaba426d62faeab93c308f5c"] * 5 async with aiohttp.ClientSession() as session:
✅ 并发执行
results = await asyncio.gather(*[fetch(session, u) for u in urls]) return len(results)上面代码约 1 秒完成;若用 for 循环逐个 await,则要 5 秒。
实际项目中注意错误处理与资源清理
异步代码出错不会自动中断整个流程,异常可能被吞或难以定位。建议:
- 每个 await 调用尽量包在 try/except 中,尤其是网络请求
- 用 async context manager(如 async with)确保连接、文件句柄及时关闭
- 避免在协程中长时间运行纯计算逻辑;必要时用 asyncio.to_thread()(3.9+)或 run_in_executor 卸载到线程
- 调试时可用 asyncio.create_task() 显式创建任务,方便加日志或取消控制
异步不是银弹,但对 IO 密集场景,它是提升吞吐量最直接、最轻量的方式。关键不在“用了 async”,而在整条链路——从 HTTP 客户端、数据库驱动到文件操作——都保持异步穿透,才能真正释放性能。










