0

0

使用BeautifulSoup爬取网页表格数据:常见问题与解决方案

花韻仙語

花韻仙語

发布时间:2025-10-24 10:06:01

|

395人浏览过

|

来源于php中文网

原创

使用BeautifulSoup爬取网页表格数据:常见问题与解决方案

本文旨在解决使用beautifulsoup进行网页数据抓取时遇到的“返回空值”问题,特别是针对包含动态加载内容的网页。我们将探讨beautifulsoup抓取失败的原因,提供调试方法,并介绍如何利用`pandas.read_html`库更高效、简洁地提取网页中的表格数据,从而避免因javascript动态修改dom而导致的抓取困境。

1. 理解BeautifulSoup与网页动态内容

在使用Python进行网页抓取时,requests库负责获取网页的原始HTML内容,而BeautifulSoup库则用于解析这些HTML并从中提取所需数据。然而,现代网页往往大量依赖JavaScript来动态生成或修改页面内容。当一个网页加载时,requests.get(URL)获取的是服务器最初发送的HTML文本。如果页面中的某些元素(例如表格的特定类名)是在此初始HTML加载后,通过JavaScript在浏览器端执行并添加到DOM中的,那么BeautifulSoup在解析原始HTML时就无法找到这些动态添加的元素或其属性。

这正是导致“BeautifulSoup返回空值”的常见原因。开发者在浏览器开发者工具中看到的元素属性(如类名)可能已经是JavaScript处理后的结果,而requests获取的原始HTML中并不包含这些信息。

2. 调试BeautifulSoup抓取问题

当BeautifulSoup未能返回预期结果时,首要任务是调试以确定问题所在。一个有效的调试策略是检查requests获取到的原始HTML中,目标元素的实际属性。

考虑以下示例代码,它尝试从一个Fandom Wiki页面抓取表格数据:

import requests
from bs4 import BeautifulSoup

URL = "https://genshin-impact.fandom.com/wiki/Serenitea_Pot/Load"
page = requests.get(URL)

soup = BeautifulSoup(page.content, "html.parser")

results = soup.find(id="mw-content-text")
# 检查results是否为空,以确保主内容区域被正确找到
if results:
    # 尝试查找所有class包含"article-table"的表格
    teapot_loads = results.find_all("table", class_="article-table")

    for teapot_load in teapot_loads:
        # 打印当前表格的完整class列表,以检查其在原始HTML中的实际类名
        print(f"Table classes in raw HTML: {teapot_load.get_attribute_list('class')}")
        # 尝试查找表格头元素
        table_head_element = teapot_load.find("th", class_="headerSort")
        print(f"Found table head element: {table_head_element}")
        print()
else:
    print("Could not find element with id='mw-content-text'")

通过运行上述调试代码,我们可能会发现,teapot_load.get_attribute_list('class')打印出的类名列表可能只包含 ['article-table', 'sortable', 'mw-collapsible'],而缺少诸如 jquery-tablesorter 或 mw-made-collapsible 等类。这表明这些额外的类是由页面加载后执行的JavaScript动态添加的。由于BeautifulSoup是基于requests获取的原始HTML进行解析的,它自然无法找到这些动态生成的类,从而导致 find_all 或 find 方法返回空。

3. 解决方案:使用pandas.read_html提取表格

对于网页中结构化的表格数据,Python的pandas库提供了一个极其强大且简洁的工具:read_html函数。这个函数能够直接从URL、文件或字符串中识别并解析HTML表格,将其转换为DataFrame对象。这大大简化了抓取表格数据的过程,并且在很多情况下,它能够处理JavaScript动态生成表格的情况(因为它通常会等待页面内容加载完成,或者底层实现会模拟浏览器行为)。

MCP Market
MCP Market

MCP Servers集合平台,帮你找到最好的MCP服务器

下载

以下是使用pandas.read_html提取上述网页表格的示例:

import pandas as pd

url = 'https://genshin-impact.fandom.com/wiki/Serenitea_Pot/Load'

try:
    # read_html返回一个DataFrame列表,因为一个页面可能包含多个表格
    dfs = pd.read_html(url)

    # 打印所有找到的表格数量
    print(f"Found {len(dfs)} tables on the page.")

    # 根据页面内容,通常所需的表格是列表中的某一个。
    # 在本例中,通过观察和尝试,发现目标表格是索引为1的DataFrame。
    if len(dfs) > 1:
        target_table_df = dfs[1]
        print("\nExtracted Table (first few rows):")
        print(target_table_df.head())
    else:
        print("Less than 2 tables found, check index.")

except Exception as e:
    print(f"An error occurred while reading HTML: {e}")

输出示例 (部分):

Found X tables on the page.

Extracted Table (first few rows):
   Unnamed: 0 Image                                      Name  Adeptal Energy  Load  ReducedLoad  Ratio
0         NaN   NaN       "A Bloatty Floatty's Dream of the Sky"              60    65           47   0.92
1         NaN   NaN        "A Guide in the Summer Woods"              60    35           24   1.71
2         NaN   NaN      "A Messenger in the Summer Woods"              60    35           24   1.71
3         NaN   NaN  "A Portrait of Paimon, the Greatest Companion"              90    35           24   2.57
4         NaN   NaN               "A Seat in the Wilderness"              20    50           50   0.40

pandas.read_html的优势在于其高度的自动化和对表格结构的良好支持。它不仅能识别HTML表格,还能自动处理表头、行、列,并将其整洁地转换为DataFrame,极大地减少了手动解析HTML标签的工作量。

4. 注意事项与总结

  • 静态 vs. 动态内容: 始终区分网页的静态HTML内容和通过JavaScript动态生成的内容。requests和BeautifulSoup擅长处理静态内容。
  • 调试是关键: 当抓取失败时,通过打印中间结果(如BeautifulSoup对象、找到的元素列表、元素的完整类名等)来定位问题。
  • 检查实际HTML: 在浏览器中,使用“查看页面源代码”(通常是Ctrl+U或右键菜单)来查看requests获取到的原始HTML。这与开发者工具(F12)中看到的经过JavaScript处理的DOM视图有所不同。
  • pandas.read_html的适用性: 对于网页中的表格数据,pandas.read_html是首选工具,它通常比手动使用BeautifulSoup解析表格更高效、更健壮。
  • 更复杂的动态页面: 如果页面内容完全由JavaScript在客户端渲染,并且pandas.read_html也无法解析,那么可能需要使用更高级的工具,如Selenium或Playwright等无头浏览器,它们可以模拟真实浏览器行为,执行JavaScript并获取最终渲染的DOM。

通过理解BeautifulSoup的工作原理、掌握有效的调试技巧,并善用pandas.read_html等专业工具,我们可以更高效、准确地从网页中提取所需数据。

参考文档

相关专题

更多
python开发工具
python开发工具

php中文网为大家提供各种python开发工具,好的开发工具,可帮助开发者攻克编程学习中的基础障碍,理解每一行源代码在程序执行时在计算机中的过程。php中文网还为大家带来python相关课程以及相关文章等内容,供大家免费下载使用。

771

2023.06.15

python打包成可执行文件
python打包成可执行文件

本专题为大家带来python打包成可执行文件相关的文章,大家可以免费的下载体验。

661

2023.07.20

python能做什么
python能做什么

python能做的有:可用于开发基于控制台的应用程序、多媒体部分开发、用于开发基于Web的应用程序、使用python处理数据、系统编程等等。本专题为大家提供python相关的各种文章、以及下载和课程。

764

2023.07.25

format在python中的用法
format在python中的用法

Python中的format是一种字符串格式化方法,用于将变量或值插入到字符串中的占位符位置。通过format方法,我们可以动态地构建字符串,使其包含不同值。php中文网给大家带来了相关的教程以及文章,欢迎大家前来阅读学习。

659

2023.07.31

python教程
python教程

Python已成为一门网红语言,即使是在非编程开发者当中,也掀起了一股学习的热潮。本专题为大家带来python教程的相关文章,大家可以免费体验学习。

1345

2023.08.03

python环境变量的配置
python环境变量的配置

Python是一种流行的编程语言,被广泛用于软件开发、数据分析和科学计算等领域。在安装Python之后,我们需要配置环境变量,以便在任何位置都能够访问Python的可执行文件。php中文网给大家带来了相关的教程以及文章,欢迎大家前来学习阅读。

549

2023.08.04

python eval
python eval

eval函数是Python中一个非常强大的函数,它可以将字符串作为Python代码进行执行,实现动态编程的效果。然而,由于其潜在的安全风险和性能问题,需要谨慎使用。php中文网给大家带来了相关的教程以及文章,欢迎大家前来学习阅读。

579

2023.08.04

scratch和python区别
scratch和python区别

scratch和python的区别:1、scratch是一种专为初学者设计的图形化编程语言,python是一种文本编程语言;2、scratch使用的是基于积木的编程语法,python采用更加传统的文本编程语法等等。本专题为大家提供scratch和python相关的文章、下载、课程内容,供大家免费下载体验。

730

2023.08.11

Golang 性能分析与pprof调优实战
Golang 性能分析与pprof调优实战

本专题系统讲解 Golang 应用的性能分析与调优方法,重点覆盖 pprof 的使用方式,包括 CPU、内存、阻塞与 goroutine 分析,火焰图解读,常见性能瓶颈定位思路,以及在真实项目中进行针对性优化的实践技巧。通过案例讲解,帮助开发者掌握 用数据驱动的方式持续提升 Go 程序性能与稳定性。

9

2026.01.22

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
React 教程
React 教程

共58课时 | 3.9万人学习

TypeScript 教程
TypeScript 教程

共19课时 | 2.4万人学习

Bootstrap 5教程
Bootstrap 5教程

共46课时 | 3万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号