0

0

使用Python进行Web Scraping:动态网页内容抓取及解决方案

花韻仙語

花韻仙語

发布时间:2025-08-17 16:32:00

|

1058人浏览过

|

来源于php中文网

原创

使用python进行web scraping:动态网页内容抓取及解决方案

本文旨在解决使用Python进行Web Scraping时,由于网页内容由JavaScript动态生成而导致无法抓取的问题。文章将介绍如何通过分析XHR/API请求获取JSON数据,以及使用Selenium等工具模拟浏览器行为来渲染动态内容,从而成功抓取目标信息。通过本文,读者将掌握应对动态网页抓取的有效方法,并能灵活应用于实际项目中。

动态网页抓取概述

传统的requests和BeautifulSoup组合在抓取静态网页时非常有效。然而,现代Web应用通常使用JavaScript动态生成内容,这意味着页面的HTML结构在加载后会发生改变。直接使用requests获取的HTML源码可能不包含目标数据,导致抓取失败。

解决方案一:分析XHR/API请求

许多动态网页通过异步JavaScript和XML(XHR)请求从服务器获取数据,这些数据通常以JSON格式返回。我们可以通过浏览器的开发者工具(通常按F12打开)的网络选项卡来分析这些请求。

  1. 打开开发者工具: 打开目标网页,按下F12键,进入开发者工具。
  2. 切换到网络选项卡: 在开发者工具中,选择“Network”(网络)选项卡。
  3. 刷新页面: 刷新页面,观察网络请求。
  4. 筛选XHR请求: 过滤请求类型,只显示XHR(或Fetch/XHR)请求。
  5. 查找API端点: 找到包含目标数据的API请求。通常,这些请求的响应类型为JSON。
  6. 分析请求URL和参数: 记录API的URL和请求参数,这些信息将用于Python代码中。

示例代码:

立即学习Python免费学习笔记(深入)”;

以下代码演示了如何使用requests库获取JSON数据并提取所需信息。

import requests

url = 'https://comic.naver.com/api/article/list?titleId=811721&page=1'  # 替换为实际的API端点

try:
    response = requests.get(url)
    response.raise_for_status()  # 检查请求是否成功

    data = response.json()

    for article in data['articleList']:
        print(article.get('subtitle'))  # 提取并打印漫画标题
except requests.exceptions.RequestException as e:
    print(f"请求错误: {e}")
except ValueError as e:
    print(f"JSON解码错误: {e}")
except KeyError as e:
    print(f"KeyError: {e}, JSON结构可能已更改")

代码解释:

  • requests.get(url): 发送GET请求到指定的API端点。
  • response.raise_for_status(): 检查HTTP响应状态码,如果不是200 OK,则抛出异常。
  • response.json(): 将响应内容解析为JSON格式。
  • data['articleList']: 访问JSON数据中的articleList键,通常包含一个列表,其中每个元素代表一个漫画章节。
  • article.get('subtitle'): 从每个章节的字典中获取subtitle键的值,即漫画标题。
  • 异常处理: 包含requests.exceptions.RequestException处理请求错误,ValueError处理JSON解码错误,KeyError处理JSON结构变更。

注意事项:

LuckyCola工具库
LuckyCola工具库

LuckyCola工具库是您工作学习的智能助手,提供一系列AI驱动的工具,旨在为您的生活带来便利与高效。

下载
  • API端点可能会改变,需要定期检查和更新代码。
  • 某些API可能需要身份验证(例如,需要提供API密钥或登录凭据)。
  • 应遵守网站的robots.txt协议,避免过度请求导致服务器过载。

解决方案二:使用Selenium模拟浏览器行为

如果无法直接找到API端点,或者API的使用受到限制,可以使用Selenium等工具模拟浏览器行为,渲染动态内容。

  1. 安装Selenium和WebDriver:

    pip install selenium

    还需要下载与你的浏览器版本匹配的WebDriver(例如,ChromeDriver for Chrome)。将WebDriver的可执行文件放在系统PATH中,或者在Selenium代码中指定其路径。

  2. 编写Selenium代码:

    from selenium import webdriver
    from selenium.webdriver.chrome.options import Options
    from selenium.webdriver.common.by import By
    from selenium.webdriver.support.ui import WebDriverWait
    from selenium.webdriver.support import expected_conditions as EC
    
    # 配置Chrome选项(可选)
    chrome_options = Options()
    chrome_options.add_argument("--headless")  # 无头模式,不显示浏览器窗口
    
    # 创建WebDriver实例
    driver = webdriver.Chrome(options=chrome_options)  # 确保ChromeDriver在PATH中,或者指定路径
    
    try:
        # 加载网页
        driver.get("https://comic.naver.com/webtoon/list?titleId=811721&tab=wed")
    
        # 等待目标元素加载(使用显式等待)
        wait = WebDriverWait(driver, 10)
        element = wait.until(EC.presence_of_element_located((By.CSS_SELECTOR, "span.EpisodeListList__title--lfIzU")))
    
        # 提取数据
        cartoons = driver.find_elements(By.CSS_SELECTOR, "span.EpisodeListList__title--lfIzU")
        for cartoon in cartoons:
            print(cartoon.text)
    
    except Exception as e:
        print(f"发生错误: {e}")
    
    finally:
        # 关闭浏览器
        driver.quit()

代码解释:

  • webdriver.Chrome(): 创建Chrome浏览器的WebDriver实例。
  • driver.get(url): 加载指定的网页。
  • WebDriverWait和EC.presence_of_element_located: 使用显式等待,确保目标元素加载完成后再进行操作。这可以避免因元素未加载完成而导致的错误。
  • driver.find_elements(By.CSS_SELECTOR, "span.EpisodeListList__title--lfIzU"): 使用CSS选择器查找所有匹配的元素。
  • cartoon.text: 获取元素的文本内容。
  • driver.quit(): 关闭浏览器。

注意事项:

  • Selenium需要安装WebDriver,并确保WebDriver的版本与浏览器版本兼容。
  • 使用显式等待可以提高代码的稳定性,避免因元素未加载完成而导致的错误。
  • 无头模式可以在后台运行浏览器,提高效率。
  • Selenium的性能开销比requests大,应根据实际情况选择合适的解决方案。

总结

动态网页抓取是一个常见的挑战,但通过分析XHR/API请求或使用Selenium等工具模拟浏览器行为,可以有效地解决这个问题。选择哪种方法取决于网页的结构、API的可用性以及性能要求。理解这些技术可以帮助你更有效地抓取Web数据,并将其应用于各种应用场景中。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
json数据格式
json数据格式

JSON是一种轻量级的数据交换格式。本专题为大家带来json数据格式相关文章,帮助大家解决问题。

452

2023.08.07

json是什么
json是什么

JSON是一种轻量级的数据交换格式,具有简洁、易读、跨平台和语言的特点,JSON数据是通过键值对的方式进行组织,其中键是字符串,值可以是字符串、数值、布尔值、数组、对象或者null,在Web开发、数据交换和配置文件等方面得到广泛应用。本专题为大家提供json相关的文章、下载、课程内容,供大家免费下载体验。

546

2023.08.23

jquery怎么操作json
jquery怎么操作json

操作的方法有:1、“$.parseJSON(jsonString)”2、“$.getJSON(url, data, success)”;3、“$.each(obj, callback)”;4、“$.ajax()”。更多jquery怎么操作json的详细内容,可以访问本专题下面的文章。

328

2023.10.13

go语言处理json数据方法
go语言处理json数据方法

本专题整合了go语言中处理json数据方法,阅读专题下面的文章了解更多详细内容。

81

2025.09.10

chrome什么意思
chrome什么意思

chrome是浏览器的意思,由Google开发的网络浏览器,它在2008年首次发布,并迅速成为全球最受欢迎的浏览器之一。本专题为大家提供chrome相关的文章、下载、课程内容,供大家免费下载体验。

1018

2023.08.11

chrome无法加载插件怎么办
chrome无法加载插件怎么办

chrome无法加载插件可以通过检查插件是否已正确安装、禁用和启用插件、清除插件缓存、更新浏览器和插件、检查网络连接和尝试在隐身模式下加载插件方法解决。更多关于chrome相关问题,详情请看本专题下面的文章。php中文网欢迎大家前来学习。

815

2023.11.06

Python爬虫获取数据的方法
Python爬虫获取数据的方法

Python爬虫可以通过请求库发送HTTP请求、解析库解析HTML、正则表达式提取数据,或使用数据抓取框架来获取数据。更多关于Python爬虫相关知识。详情阅读本专题下面的文章。php中文网欢迎大家前来学习。

293

2023.11.13

pdf怎么转换成xml格式
pdf怎么转换成xml格式

将 pdf 转换为 xml 的方法:1. 使用在线转换器;2. 使用桌面软件(如 adobe acrobat、itext);3. 使用命令行工具(如 pdftoxml)。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

1939

2024.04.01

Swift iOS架构设计与MVVM模式实战
Swift iOS架构设计与MVVM模式实战

本专题聚焦 Swift 在 iOS 应用架构设计中的实践,系统讲解 MVVM 模式的核心思想、数据绑定机制、模块拆分策略以及组件化开发方法。内容涵盖网络层封装、状态管理、依赖注入与性能优化技巧。通过完整项目案例,帮助开发者构建结构清晰、可维护性强的 iOS 应用架构体系。

3

2026.03.03

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
Sass 教程
Sass 教程

共14课时 | 0.9万人学习

Bootstrap 5教程
Bootstrap 5教程

共46课时 | 3.5万人学习

CSS教程
CSS教程

共754课时 | 39万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号