Python异步编程核心是事件循环、协程调度与I/O等待协同:事件循环为唯一调度器,协程对象需显式提交执行,非阻塞仅适用于支持异步I/O的操作,CPU密集型任务须用run_in_executor。

Python异步编程的核心不在语法糖,而在事件循环、协程调度与I/O等待的协同机制。掌握它,关键不是记住async/await怎么写,而是理解“为什么必须用await让出控制权”“为什么time.sleep()会阻塞而asyncio.sleep()不会”。
事件循环:异步系统的唯一“CPU”
asyncio程序启动后,只有一个事件循环在持续运行——它不执行业务逻辑,只负责监听I/O就绪、调度协程、触发回调。所有async函数都必须被事件循环驱动才能运行。
- 用
asyncio.run(main())会自动创建并运行一个新循环(适合脚本) - 用
loop = asyncio.get_event_loop()可手动获取(注意:主线程中多次调用可能报错) - 循环一旦关闭,无法重启;跨线程使用需调用
asyncio.run_coroutine_threadsafe()
协程对象 ≠ 正在运行的协程
async def func(): ...定义的是协程函数,调用它返回的是一个协程对象(coroutine object),此时函数体**完全没执行**。只有把它交给事件循环(如await coro或loop.create_task(coro)),才真正开始执行。
- 直接打印
func()只会看到 - 忘记
await或create_task,等于写了代码却没按执行键 -
asyncio.ensure_future()和create_task()功能类似,但后者是推荐方式(更明确、支持取消)
真正的非阻塞,只发生在“可挂起”的I/O操作上
asyncio本身不魔法。它能让网络请求、文件读写等变快,是因为底层用了操作系统提供的异步I/O能力(如Linux的epoll、Windows的IOCP)。但普通函数(如json.loads()、for i in range(1000000):)仍是同步执行,会阻塞整个循环。
立即学习“Python免费学习笔记(深入)”;
- 数据库操作要用
aiomysql、asyncpg等异步驱动,不能用pymysql - HTTP请求用
aiohttp或httpx.AsyncClient,别用requests - 想在异步环境中跑CPU密集型任务?得用
loop.run_in_executor()扔进线程池或进程池
实战案例:并发抓取10个网页并统计标题长度
不用第三方库也能写出清晰结构:
import asyncio import aiohttpasync def fetch_title(url): async with aiohttp.ClientSession() as session: async with session.get(url) as resp: html = await resp.text()
简单提取title(实际建议用BeautifulSoup)
start = html.find('zuojiankuohaophpcntitleyoujiankuohaophpcn') + 7 end = html.find('zuojiankuohaophpcn/titleyoujiankuohaophpcn', start) title = html[start:end].strip() if start > 6 and end > start else 'N/A' return len(title)async def main(): urls = [ 'https://www.php.cn/link/1536687004241eb9faeee0e227b58c60', 'https://www.php.cn/link/c2148796071914983ed6b6e9dbbff735',
... 其他8个URL
] tasks = [fetch_title(url) for url in urls] results = await asyncio.gather(*tasks) print('各页面标题长度:', results)asyncio.run(main())
这段代码里没有锁、没有线程管理,却能高效并发——因为每个
session.get()遇到网络等待时,自动把控制权交还给事件循环,让它去处理其他任务的I/O响应。










