需封装带自动刷新token的requests会话,用Session子类拦截401、同步刷新、更新headers并重放请求;超时须设元组控制连接与读取;重试用指数退避;响应统一解析,提取data/code等字段并标准化错误信息。

Python接口项目不是写个 requests.get() 就算完事,真正上线的接口调用必须处理鉴权、重试、超时、错误分类、日志追踪和响应结构统一——否则一出问题就只能翻日志猜。
怎么封装一个带 token 自动刷新的 requests 会话
硬编码 headers={'Authorization': 'Bearer xxx'} 在请求里,token 过期后所有接口直接 401,没人手动去换。得让会话自己感知过期并刷新。
- 用
requests.Session()子类,在send()方法里拦截 401 响应,触发refresh_token() -
refresh_token()必须是同步阻塞调用(别用asyncio),否则并发请求可能同时发起多次刷新 - 刷新成功后,要更新会话级
headers['Authorization'],并重放原请求(注意只重放一次,避免死循环) - token 存储建议用线程局部变量
threading.local(),而不是全局变量,防止多线程污染
requests 超时设置为什么总被忽略
timeout=5 看似简单,但实际只控制「连接 + 响应头到达」时间,不包括下载大文件体的过程。线上遇到慢接口或返回 MB 级响应时,程序仍会卡住。
- 必须拆成元组:
timeout=(3.0, 10.0)—— 第一个数是 connect timeout,第二个是 read timeout - read timeout 要根据业务预期设:查缓存接口设 1s,导出报表接口可能得设 60s
- 别在全局
requests.adapters.HTTPAdapter(pool_connections=10)里漏设max_retries,否则超时后不会自动重试 - 重试策略建议用指数退避:
urllib3.util.Retry(backoff_factor=0.3, status_forcelist=[429, 502, 503, 504])
怎么让所有接口响应都走同一套解析逻辑
不同接口返回字段名不一致(data / result / payload)、错误码嵌套层级不同(err.code vs error.code),硬写 if-else 会迅速失控。
立即学习“Python免费学习笔记(深入)”;
- 定义统一响应基类,用
@dataclass或 PydanticBaseModel描述标准结构 - 封装
call_api(method, url, **kw)函数,在内部做三件事:发请求 → 检查 HTTP 状态码(非 2xx 抛HTTPError)→ 用response.json()解析后,用预设规则提取业务数据字段 - 提取规则可配置化:比如
data_key='data'、code_key='code'、success_code=0,不同接口传不同参数 - 错误信息必须带原始
response.status_code和response.text[:200],否则排查时看不到真实返回体
def call_api(method, url, *, data_key='data', code_key='code', success_code=0, **kwargs):
resp = session.request(method, url, **kwargs)
if not (200 <= resp.status_code < 300):
raise APIError(f"HTTP {resp.status_code}", resp)
try:
body = resp.json()
except ValueError:
raise APIError("Invalid JSON", resp)
if body.get(code_key) != success_code:
raise APIError(f"API error: {body.get(code_key)}", resp)
return body.get(data_key, {})
最常被跳过的细节是:没对 response.content 做长度校验,上游返回空体或 HTML 错误页时,.json() 报错信息极难定位;还有就是把 timeout 写成单个数字,结果大文件下载永远卡死。










