0

0

使用Python进行Web Scraping时处理动态加载内容

花韻仙語

花韻仙語

发布时间:2025-08-17 16:44:01

|

1006人浏览过

|

来源于php中文网

原创

使用python进行web scraping时处理动态加载内容

本文旨在解决在使用Python进行Web Scraping时,由于网页内容通过JavaScript动态加载而导致Beautiful Soup无法抓取到目标数据的问题。文章将介绍如何通过分析XHR/API请求获取JSON数据,以及使用Selenium模拟浏览器行为来渲染动态内容,从而成功抓取所需信息。

在使用Python进行Web Scraping时,经常会遇到网页内容并非直接包含在HTML源码中,而是通过JavaScript动态加载的情况。这导致使用传统的Beautiful Soup等库无法直接抓取到目标数据,出现类似IndexError: list index out of range的错误。 这是因为Beautiful Soup只能解析静态HTML内容,无法执行JavaScript代码。

解决方案一:分析XHR/API请求

对于动态加载的内容,一种常见的解决方案是分析网页的XHR(XMLHttpRequest)或API请求。现代网页通常通过这些请求从服务器获取数据,并使用JavaScript将其渲染到页面上。

  1. 打开开发者工具 在浏览器中打开目标网页,并打开开发者工具(通常按F12键)。
  2. 切换到Network选项卡: 在开发者工具中,切换到“Network”选项卡。
  3. 刷新网页: 刷新网页,观察Network选项卡中出现的请求。
  4. 筛选请求: 可以使用“XHR”或“Fetch/XHR”过滤器来筛选出异步请求。
  5. 分析请求: 找到包含目标数据的请求。通常,这些请求会返回JSON格式的数据。
  6. 使用requests库获取数据: 使用Python的requests库发送相同的请求,并解析返回的JSON数据。

以下是一个示例,展示了如何从Naver漫画的API获取漫画章节标题:

立即学习Python免费学习笔记(深入)”;

import requests

url = 'https://comic.naver.com/api/article/list?titleId=811721&page=1'

try:
    response = requests.get(url)
    response.raise_for_status()  # 检查请求是否成功
    data = response.json()

    for article in data['articleList']:
        print(article.get('subtitle'))

except requests.exceptions.RequestException as e:
    print(f"请求错误: {e}")
except ValueError as e:
    print(f"JSON解析错误: {e}")
except KeyError as e:
    print(f"KeyError: 键 '{e}' 不存在于JSON数据中")
except Exception as e:
    print(f"发生未知错误: {e}")

代码解释:

讯飞听见会议
讯飞听见会议

科大讯飞推出的AI智能会议系统

下载
  • requests.get(url):发送GET请求到指定的URL。
  • response.raise_for_status():检查HTTP响应状态码,如果请求失败(例如404错误),则抛出异常。
  • response.json():将响应内容解析为JSON格式。
  • 循环遍历data['articleList'],并提取每个章节的标题(subtitle)。
  • 添加了try-except块来处理可能出现的异常,如网络请求错误、JSON解析错误、键不存在等。

注意事项:

  • 不同的网站API可能需要不同的请求头(headers),例如User-Agent、Referer等。可以在开发者工具中查看原始请求的headers,并将其添加到requests.get()函数的headers参数中。
  • 有些API可能需要身份验证(Authentication)。

解决方案二:使用Selenium模拟浏览器行为

如果无法通过分析API请求获取数据,或者API请求过于复杂,可以考虑使用Selenium等工具模拟浏览器行为。Selenium可以启动一个真实的浏览器实例,并执行JavaScript代码,从而渲染动态内容。

  1. 安装Selenium: 使用pip安装Selenium:pip install selenium
  2. 下载WebDriver: 下载与浏览器版本匹配的WebDriver。例如,如果使用Chrome浏览器,需要下载ChromeDriver。将WebDriver的可执行文件放在系统PATH中,或者在代码中指定其路径。
  3. 编写Selenium代码:
from selenium import webdriver
from selenium.webdriver.chrome.service import Service
from selenium.webdriver.chrome.options import Options
from selenium.webdriver.common.by import By
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC

# 配置Chrome选项
chrome_options = Options()
chrome_options.add_argument("--headless")  # 无头模式,不在前台显示浏览器
chrome_options.add_argument("--disable-gpu")  # 禁用GPU加速,避免某些环境下的问题

# 设置WebDriver服务
webdriver_path = '/path/to/chromedriver'  # 替换为你的ChromeDriver路径
service = Service(webdriver_path)

# 初始化WebDriver
driver = webdriver.Chrome(service=service, options=chrome_options)

url = "https://comic.naver.com/webtoon/list?titleId=811721&tab=wed"

try:
    driver.get(url)

    # 等待目标元素加载
    wait = WebDriverWait(driver, 10)
    element = wait.until(EC.presence_of_element_located((By.CSS_SELECTOR, "span.EpisodeListList__title--lfIzU")))

    # 提取数据
    cartoons = driver.find_elements(By.CSS_SELECTOR, "span.EpisodeListList__title--lfIzU")
    for cartoon in cartoons:
        print(cartoon.text)

except Exception as e:
    print(f"发生错误: {e}")

finally:
    driver.quit()

代码解释:

  • webdriver.Chrome():启动Chrome浏览器实例。
  • driver.get(url):打开指定的URL。
  • driver.find_elements(By.CSS_SELECTOR, "span.EpisodeListList__title--lfIzU"): 使用CSS选择器查找所有符合条件的元素。
  • 循环遍历找到的元素,并提取其文本内容。
  • driver.quit():关闭浏览器实例。
  • --headless: 使用无头模式,不在前台显示浏览器界面。
  • --disable-gpu: 禁用GPU加速,避免某些环境下的问题。
  • WebDriverWait和expected_conditions用于等待页面元素加载完成,避免因元素未加载而导致错误。

注意事项:

  • Selenium的执行速度相对较慢,因为它需要启动浏览器并执行JavaScript代码。
  • Selenium需要消耗更多的系统资源。
  • 需要根据目标网站的结构选择合适的元素定位方式(例如CSS选择器、XPath等)。
  • 确保WebDriver的版本与浏览器版本兼容。

总结

当遇到网页内容通过JavaScript动态加载的情况时,传统的Beautiful Soup可能无法直接抓取到数据。 可以通过分析XHR/API请求获取JSON数据,或者使用Selenium模拟浏览器行为来渲染动态内容,从而成功抓取所需信息。 选择哪种方法取决于具体情况,如果API请求简单且易于分析,则优先选择API请求方式。如果API请求复杂或无法获取,则可以使用Selenium。 在使用Selenium时,注意优化代码,避免不必要的资源消耗。

相关专题

更多
python开发工具
python开发工具

php中文网为大家提供各种python开发工具,好的开发工具,可帮助开发者攻克编程学习中的基础障碍,理解每一行源代码在程序执行时在计算机中的过程。php中文网还为大家带来python相关课程以及相关文章等内容,供大家免费下载使用。

715

2023.06.15

python打包成可执行文件
python打包成可执行文件

本专题为大家带来python打包成可执行文件相关的文章,大家可以免费的下载体验。

625

2023.07.20

python能做什么
python能做什么

python能做的有:可用于开发基于控制台的应用程序、多媒体部分开发、用于开发基于Web的应用程序、使用python处理数据、系统编程等等。本专题为大家提供python相关的各种文章、以及下载和课程。

739

2023.07.25

format在python中的用法
format在python中的用法

Python中的format是一种字符串格式化方法,用于将变量或值插入到字符串中的占位符位置。通过format方法,我们可以动态地构建字符串,使其包含不同值。php中文网给大家带来了相关的教程以及文章,欢迎大家前来阅读学习。

617

2023.07.31

python教程
python教程

Python已成为一门网红语言,即使是在非编程开发者当中,也掀起了一股学习的热潮。本专题为大家带来python教程的相关文章,大家可以免费体验学习。

1235

2023.08.03

python环境变量的配置
python环境变量的配置

Python是一种流行的编程语言,被广泛用于软件开发、数据分析和科学计算等领域。在安装Python之后,我们需要配置环境变量,以便在任何位置都能够访问Python的可执行文件。php中文网给大家带来了相关的教程以及文章,欢迎大家前来学习阅读。

547

2023.08.04

python eval
python eval

eval函数是Python中一个非常强大的函数,它可以将字符串作为Python代码进行执行,实现动态编程的效果。然而,由于其潜在的安全风险和性能问题,需要谨慎使用。php中文网给大家带来了相关的教程以及文章,欢迎大家前来学习阅读。

575

2023.08.04

scratch和python区别
scratch和python区别

scratch和python的区别:1、scratch是一种专为初学者设计的图形化编程语言,python是一种文本编程语言;2、scratch使用的是基于积木的编程语法,python采用更加传统的文本编程语法等等。本专题为大家提供scratch和python相关的文章、下载、课程内容,供大家免费下载体验。

698

2023.08.11

php网站源码教程大全
php网站源码教程大全

本专题整合了php网站源码相关教程,阅读专题下面的文章了解更多详细内容。

0

2025.12.31

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
Sass 教程
Sass 教程

共14课时 | 0.7万人学习

Bootstrap 5教程
Bootstrap 5教程

共46课时 | 2.7万人学习

CSS教程
CSS教程

共754课时 | 17.2万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号