Python数据抓取核心是理清“请求→响应→解析→存储”四环节:一、明确目标与请求方式,区分静态/动态加载,合理选用requests或Selenium;二、用CSS选择器精准提取字段,注意防KeyError和文本清洗;三、设计容错逻辑应对缺失、格式混乱与结构变动;四、结构化保存前需校验数据一致性与完整性。

Python数据抓取的核心不是“写多少代码”,而是理清“请求→响应→解析→存储”这四个关键环节。字段提取是否准确,往往取决于HTML结构理解是否到位、选择器是否合理、异常是否兜底。
一、明确目标页面与请求方式
先人工打开目标网页,右键“查看网页源代码”或用浏览器开发者工具(F12)检查目标字段所在标签。注意区分是静态HTML渲染,还是通过JavaScript动态加载(后者需Selenium或分析AJAX接口)。若为静态页,requests + BeautifulSoup即可;若含登录、翻页、反爬,需加headers、session、延时或代理。
- 用requests.get(url, headers=headers)模拟真实访问,headers至少包含User-Agent
- 检查响应状态码res.status_code == 200,并用res.encoding = 'utf-8'避免中文乱码
- 对含分页的列表页,构造URL模板:f"https://example.com/list?page={i}"
二、精准定位并提取目标字段
字段提取不是“把所有文本抠出来”,而是按结构层级逐层筛选。优先用CSS选择器(简洁直观),其次XPath(适合复杂嵌套),避免全文正则匹配(易断裂)。
- 用soup.select("div.item h2.title")获取标题元素列表,再用[e.get_text(strip=True) for e in elements]批量清洗
- 提取属性值(如链接、图片地址)用e.get("href")或e["src"],注意加.get()防KeyError
- 遇到文本混在标签中(如“价格:¥99”),用e.get_text() 后配合re.search(r"¥(\d+)", text)抽数字
三、处理常见解析难点
实际抓取中,字段缺失、格式不统一、结构变动是常态。不能靠“一次跑通”,而要设计容错逻辑。
立即学习“Python免费学习笔记(深入)”;
- 字段可能为空?统一用lambda e: e.get_text(strip=True) if e else ""封装提取函数
- 日期/数字格式混乱?用dateutil.parser.parse()转日期,用re.sub(r"[^\d.]", "", s)提纯数字
- 页面结构微调就报错?避免硬写select("div:nth-of-type(3) > ul > li:first-child"),改用含语义的class名或标题文字定位
四、结构化保存与简单验证
提取完别急着导出,先用print或logging快速核对前几条数据是否符合预期。字段名、类型、空值比例都要心里有数。










