requests发起网络请求分三步:发请求、取响应、解析数据;支持GET/POST、Session管理、超时设置与异常处理,是Python爬虫和API调用首选。

用 requests 发起网络请求,核心就三步:发请求、取响应、解析数据。它比原生 urllib 简洁得多,是 Python 网络爬虫和 API 调用的首选。
发送 GET 请求获取网页或 API 数据
最常用的是 requests.get(),适合获取公开页面或 RESTful 接口返回的 JSON 数据。
- 基础写法:
res = requests.get("https://httpbin.org/get") - 带参数(自动拼接为 URL 查询字符串):
requests.get("https://httpbin.org/get", params={"key": "value"}) - 加请求头模拟浏览器(避免被拒绝):
headers = {"User-Agent": "Mozilla/5.0..."},传入headers=headers - 设置超时防止卡死:
requests.get(url, timeout=5)(单位秒,推荐显式指定)
发送 POST 请求提交表单或 JSON 数据
POST 用于向服务器提交数据,常见于登录、上传、调用接口等场景。
- 提交表单数据(
application/x-www-form-urlencoded):requests.post(url, data={"username": "a", "pwd": "123"}) - 提交 JSON(
application/json):requests.post(url, json={"name": "Alice"})(自动序列化+设 header) - 上传文件:
files = {"file": open("test.txt", "rb")},再传入files=files
处理响应:状态码、文本、JSON 和二进制内容
请求发出后,必须检查是否成功,并按需提取内容。
立即学习“Python免费学习笔记(深入)”;
- 检查状态码:
if res.status_code == 200:或更稳妥地用res.raise_for_status()(非 2xx 抛异常) - 获取响应文本:
res.text(已按响应头编码解码,一般可用) - 解析 JSON:
res.json()(自动反序列化,若非 JSON 格式会报错) - 获取原始字节(如下载图片):
res.content,可直接写入文件:open("img.png", "wb").write(res.content)
使用 Session 管理登录态和复用连接
需要保持 Cookie(如登录后访问个人页)或提升多次请求效率时,用 requests.Session()。
- 创建会话:
s = requests.Session() - 先登录:
s.post(login_url, data=login_data)(Cookie 自动保存) - 后续请求直接用
s.get(profile_url),无需手动传 Cookie - 连接池复用,比反复调用
requests.get更高效,尤其批量请求时
不复杂但容易忽略:每次请求都应设 timeout,关键接口建议加异常捕获;JSON 接口优先用 .json(),别自己用 json.loads(res.text);敏感信息(如 token)别硬编码在代码里。










