0

0

Python网页抓取实战:高效解析Tonies产品时长与价格

聖光之護

聖光之護

发布时间:2025-11-24 12:36:07

|

671人浏览过

|

来源于php中文网

原创

Python网页抓取实战:高效解析Tonies产品时长与价格

本文提供了一个使用python进行网页抓取的高效教程,旨在从tonies.com网站提取tonies产品的播放时长和价格。文章解决了传统爬虫在处理shadow dom和cookie接受等复杂问题时的局限性,重点演示了如何利用requests和beautifulsoup库,通过解析网页中嵌入的json数据 (__next_data__脚本标签) 来准确、全面地获取结构化产品信息。

传统网页抓取面临的挑战

在尝试从现代网站(如tonies.com)抓取数据时,开发者经常会遇到一些挑战。例如,网站可能使用JavaScript动态加载内容,导致BeautifulSoup等静态解析工具难以直接获取所有信息。用户可能会遇到复杂的交互元素,如Shadow DOM中的Cookie接受弹窗,这使得使用Selenium等自动化工具也变得复杂。此外,直接解析HTML元素可能需要编写复杂的选择器和正则表达式,且容易因网站结构微小变化而失效,效率低下,且维护困难。最初的尝试可能仅能抓取到部分数据(例如,只抓取到21个项目),无法获取完整的页面信息。

高效的数据获取策略:利用嵌入式JSON

幸运的是,许多现代Web应用(尤其是使用React、Next.js等框架构建的单页应用)会在HTML页面中嵌入结构化的JSON数据,通常位于一个ID为__NEXT_DATA__的<script>标签内。这些JSON数据包含了页面渲染所需的大部分或全部动态信息,包括产品列表、价格、描述等。通过直接解析这些JSON数据,我们可以绕过复杂的HTML元素定位、JavaScript执行以及Shadow DOM等问题,以一种更直接、更高效、更稳定的方式获取所需信息。这种方法不仅能获取更全面的数据(例如,一次性获取196个产品信息),还能减少对页面DOM结构的依赖。

实现步骤

我们将使用Python的requests库发送HTTP请求,BeautifulSoup库解析HTML,以及内置的json库处理JSON数据。

1. 导入必要的库

首先,确保安装了requests和beautifulsoup4库。如果尚未安装,可以通过pip install requests beautifulsoup4进行安装。

立即学习Python免费学习笔记(深入)”;

一点PPT
一点PPT

一句话生成专业PPT,AI自动排版配图

下载
import requests
from bs4 import BeautifulSoup
import json

2. 发送HTTP请求并解析HTML

使用requests.get()方法向目标URL发送请求,获取网页内容。为了模拟浏览器行为,建议添加User-Agent头信息。然后,使用BeautifulSoup将HTML内容解析成一个可操作的对象。

url = "https://tonies.com/en-gb/tonies/"
# 添加headers模拟浏览器请求,有助于避免被网站识别为爬虫而拒绝访问
headers = {
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124124 Safari/537.36"
}

try:
    response = requests.get(url, headers=headers, timeout=10)
    response.raise_for_status()  # 检查HTTP请求是否成功,如果失败则抛出异常
except requests.exceptions.RequestException as e:
    print(f"请求失败: {e}")
    # 在实际应用中,这里可能需要更复杂的错误处理或重试机制
    exit()

soup = BeautifulSoup(response.text, "html.parser")

3. 定位并提取JSON数据

这是整个过程的关键一步。我们通过ID选择器#__NEXT_DATA__来定位包含JSON数据的<script>标签,并提取其文本内容。由于这个文本内容是一个JSON字符串,我们需要使用json.loads()将其转换为Python字典。

next_data_script = soup.select_one("#__NEXT_DATA__")
if not next_data_script:
    print("未找到__NEXT_DATA__ script标签,网站结构可能已改变。")
    exit()

try:
    data = json.loads(next_data_script.text)
except json.JSONDecodeError as e:
    print(f"解析JSON数据失败: {e}")
    exit()

4. 结构化处理产品数据

提取出的data字典包含了网站的各种状态和数据。我们需要根据其结构导航到具体的产品列表。对于tonies.com,产品数据通常嵌套在["props"]["pageProps"]["page"]["productList"]["normalizedProducts"]路径下。

try:
    product_list = data["props"]["pageProps"]["page"]["productList"]["normalizedProducts"]
except KeyError as e:
    print(f"导航到产品列表路径失败: {e},JSON结构可能已改变。")
    exit()

# 定义我们感兴趣的键
use_keys = ["name", "price", "runTime"]

# 遍历产品列表,提取所需信息
tonies_data = []
for product in product_list:
    item_info = {}
    for key in use_keys:
        if key == "price":
            # 价格信息通常嵌套在另一个字典中,需要进一步提取'amount'
            item_info[key] = product.get(key, {}).get("amount")
        else:
            item_info[key] = product.get(key)
    tonies_data.append(item_info)

完整代码示例

将上述步骤整合,形成一个完整的Python脚本:

import requests
from bs4 import BeautifulSoup
import json

def scrape_tonies_data():
    """
    从tonies.com抓取产品名称、价格和播放时长。
    """
    url = "https://tonies.com/en-gb/tonies/"
    headers = {
        "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124124 Safari/537.36"
    }

    try:
        response = requests.get(url, headers=headers, timeout=10)
        response.raise_for_status()  # 检查HTTP请求是否成功
    except requests.exceptions.RequestException as e:
        print(f"请求失败: {e}")
        return []

    soup = BeautifulSoup(response.text, "html.parser")

    next_data_script = soup.select_one("#__NEXT_DATA__")
    if not next_data_script:
        print("未找到__NEXT_DATA__ script标签,网站结构可能已改变。")
        return []

    try:
        data = json.loads(next_data_script.text)
        product_list = data["props"]["pageProps"]["page"]["productList"]["normalizedProducts"]
    except (json.JSONDecodeError, KeyError) as e:
        print(f"解析JSON数据或导航路径失败: {e}

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

WorkBuddy
WorkBuddy

腾讯云推出的AI原生桌面智能体工作台

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
json数据格式
json数据格式

JSON是一种轻量级的数据交换格式。本专题为大家带来json数据格式相关文章,帮助大家解决问题。

457

2023.08.07

json是什么
json是什么

JSON是一种轻量级的数据交换格式,具有简洁、易读、跨平台和语言的特点,JSON数据是通过键值对的方式进行组织,其中键是字符串,值可以是字符串、数值、布尔值、数组、对象或者null,在Web开发、数据交换和配置文件等方面得到广泛应用。本专题为大家提供json相关的文章、下载、课程内容,供大家免费下载体验。

549

2023.08.23

jquery怎么操作json
jquery怎么操作json

操作的方法有:1、“$.parseJSON(jsonString)”2、“$.getJSON(url, data, success)”;3、“$.each(obj, callback)”;4、“$.ajax()”。更多jquery怎么操作json的详细内容,可以访问本专题下面的文章。

337

2023.10.13

go语言处理json数据方法
go语言处理json数据方法

本专题整合了go语言中处理json数据方法,阅读专题下面的文章了解更多详细内容。

82

2025.09.10

js正则表达式
js正则表达式

php中文网为大家提供各种js正则表达式语法大全以及各种js正则表达式使用的方法,还有更多js正则表达式的相关文章、相关下载、相关课程,供大家免费下载体验。

531

2023.06.20

正则表达式不包含
正则表达式不包含

正则表达式,又称规则表达式,,是一种文本模式,包括普通字符和特殊字符,是计算机科学的一个概念。正则表达式使用单个字符串来描述、匹配一系列匹配某个句法规则的字符串,通常被用来检索、替换那些符合某个模式的文本。php中文网给大家带来了有关正则表达式的相关教程以及文章,希望对大家能有所帮助。

258

2023.07.05

java正则表达式语法
java正则表达式语法

java正则表达式语法是一种模式匹配工具,它非常有用,可以在处理文本和字符串时快速地查找、替换、验证和提取特定的模式和数据。本专题提供java正则表达式语法的相关文章、下载和专题,供大家免费下载体验。

766

2023.07.05

java正则表达式匹配字符串
java正则表达式匹配字符串

在Java中,我们可以使用正则表达式来匹配字符串。本专题为大家带来java正则表达式匹配字符串的相关内容,帮助大家解决问题。

219

2023.08.11

TypeScript类型系统进阶与大型前端项目实践
TypeScript类型系统进阶与大型前端项目实践

本专题围绕 TypeScript 在大型前端项目中的应用展开,深入讲解类型系统设计与工程化开发方法。内容包括泛型与高级类型、类型推断机制、声明文件编写、模块化结构设计以及代码规范管理。通过真实项目案例分析,帮助开发者构建类型安全、结构清晰、易维护的前端工程体系,提高团队协作效率与代码质量。

26

2026.03.13

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
React 教程
React 教程

共58课时 | 6万人学习

国外Web开发全栈课程全集
国外Web开发全栈课程全集

共12课时 | 1万人学习

React核心原理新老生命周期精讲
React核心原理新老生命周期精讲

共12课时 | 1.1万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号