0

0

利用Python进行网页表格数据抓取与Pandas DataFrame转换

DDD

DDD

发布时间:2025-09-10 15:09:01

|

861人浏览过

|

来源于php中文网

原创

利用Python进行网页表格数据抓取与Pandas DataFrame转换

本教程详细介绍了如何使用Python的requests、BeautifulSoup和pandas库,从动态网页中抓取结构化的表格数据,特别是雪深信息,并将其高效地转换为Pandas DataFrame。内容涵盖了HTTP请求、HTML解析、元素定位以及数据清洗与整合,旨在提供一套完整的网页数据抓取与处理解决方案。

网页数据抓取概述

在数据分析和自动化任务中,从网页上获取结构化数据是一个常见的需求。虽然许多网站提供api接口,但仍有大量信息仅以html形式呈现。此时,网页抓取(web scraping)技术便显得尤为重要。本教程将以抓取挪威气象局网站上的雪深数据为例,演示如何利用python有效地提取并组织这些信息。

核心工具介绍

我们将主要使用以下三个Python库:

  1. requests: 用于发送HTTP请求,获取网页的HTML内容。
  2. BeautifulSoup: 一个强大的HTML/XML解析库,能够从复杂的HTML文档中提取所需数据。
  3. pandas: 一个数据分析库,提供高性能、易于使用的数据结构(如DataFrame),便于数据的存储、处理和分析。

抓取流程详解

整个数据抓取与转换过程可以分为以下几个步骤:

1. 发送HTTP请求获取网页内容

首先,我们需要向目标URL发送一个GET请求,以获取网页的HTML内容。

import requests
from bs4 import BeautifulSoup
import pandas as pd
from typing import Generator, List, TypeAlias

# 定义类型别名,提高代码可读性
LazyRow: TypeAlias = Generator[str, None, None]
LazyRowTable: TypeAlias = Generator[LazyRow, None, None]

# 目标URL
url = 'https://www.yr.no/nb/sn%C3%B8dybder/NO-46/Norge/Vestland'

# 发送GET请求
response = requests.get(url)
# 检查请求是否成功
response.raise_for_status() # 如果请求失败,会抛出HTTPError异常

# 获取网页内容
html_content = response.content

response.raise_for_status()是一个良好的实践,它会在HTTP请求返回错误状态码(如4xx或5xx)时抛出异常,帮助我们及时发现网络或服务器问题。

立即学习Python免费学习笔记(深入)”;

2. 解析HTML内容并定位表格

获取到HTML内容后,BeautifulSoup将帮助我们将其解析成一个可遍历的树形结构,从而方便地定位到目标数据所在的HTML元素。通过观察目标网页(雪深数据页面),我们可以发现雪深数据是以表格形式呈现的。我们需要找到表格的标题行(

)和数据行( )。
# 使用BeautifulSoup解析HTML内容
soup = BeautifulSoup(html_content, 'html.parser')

# 定位表格头部(列名)
# 查找所有class为'fluid-table__cell--heading'的th标签
table_headers = soup.find_all('th', class_='fluid-table__cell--heading')

# 定位表格数据行
# 查找所有class为'fluid-table__row fluid-table__row--link'的tr标签
table_rows = soup.find_all('tr', class_='fluid-table__row fluid-table__row--link')

# 提取列名
# 注意:在BeautifulSoup的find_all方法中,由于'class'是Python的保留关键字,
# 需要使用'class_'来指定HTML元素的class属性。
colnames: List[str] = [th.text.strip() for th in table_headers]

在提取列名时,我们使用了一个列表推导式来遍历所有找到的

MagickPen
MagickPen

在线AI英语写作助手,像魔术师一样在几秒钟内写出任何东西。

下载
标签,并获取其文本内容。.strip()方法用于去除文本两端的空白字符。

3. 提取表格数据

表格数据通常位于

标签内部的标签中。我们可以遍历每个数据行,然后遍历该行内的所有子元素(即单元格),提取它们的文本内容。这里使用生成器表达式来高效地处理数据,避免一次性加载所有数据到内存中,尤其适用于大型表格。
# 提取每一行的数据
# row.children会返回tr标签下的所有子元素,包括td标签
# 这里使用嵌套的生成器表达式来构建行数据
row_data: LazyRowTable = ((child.text.strip() for child in row.children) for row in table_rows)

row.children会迭代

标签下的所有直接子元素,这通常包括标签。通过这种方式,我们可以逐个获取每个单元格的文本内容。

4. 构建Pandas DataFrame

最后一步是将提取到的列名和行数据组装成一个Pandas DataFrame。

# 使用提取到的列名和行数据创建Pandas DataFrame
df: pd.DataFrame = pd.DataFrame(row_data, columns=colnames)

# 尝试将DataFrame中的数据转换为整数类型,如果遇到无法转换的值则忽略(errors='ignore')
# 这有助于确保数值型数据以正确的类型存储,便于后续的数值计算
df = df.astype(int, errors='ignore')

# 打印DataFrame的前几行以验证结果
print(df.head())

df.astype(int, errors='ignore')尝试将DataFrame中的所有列转换为整数类型。errors='ignore'参数的作用是,如果某一列包含非数字字符,Pandas将跳过该列的类型转换,而不是抛出错误,这在处理包含混合数据类型的列时非常有用。

完整示例代码

以下是整合了上述所有步骤的完整代码:

import requests
from bs4 import BeautifulSoup
import pandas as pd
from typing import Generator, List, TypeAlias

# 定义类型别名,提高代码可读性
LazyRow: TypeAlias = Generator[str, None, None]
LazyRowTable: TypeAlias = Generator[LazyRow, None, None]

def scrape_snow_depth_data(url: str) -> pd.DataFrame:
    """
    从指定的雪深数据网页抓取表格数据并转换为Pandas DataFrame。

    Args:
        url (str): 目标网页的URL。

    Returns:
        pd.DataFrame: 包含雪深数据的DataFrame。
    """
    try:
        # 1. 发送HTTP请求获取网页内容
        response = requests.get(url)
        response.raise_for_status() # 检查请求是否成功

        html_content = response.content
        soup = BeautifulSoup(html_content, 'html.parser')

        # 2. 解析HTML内容并定位表格元素
        # 定位表格头部(列名)
        table_headers = soup.find_all('th', class_='fluid-table__cell--heading')
        # 定位表格数据行
        table_rows = soup.find_all('tr', class_='fluid-table__row fluid-table__row--link')

        # 提取列名
        colnames: List[str] = [th.text.strip() for th in table_headers]

        # 3. 提取每一行的数据
        row_data: LazyRowTable = ((child.text.strip() for child in row.children) for row in table_rows)

        # 4. 构建Pandas DataFrame
        df: pd.DataFrame = pd.DataFrame(row_data, columns=colnames)

        # 尝试将DataFrame中的数据转换为整数类型,忽略转换错误
        df = df.astype(int, errors='ignore')

        return df

    except requests.exceptions.RequestException as e:
        print(f"请求网页失败: {e}")
        return pd.DataFrame() # 返回空DataFrame
    except Exception as e:
        print(f"处理网页数据时发生错误: {e}")
        return pd.DataFrame() # 返回空DataFrame

if __name__ == "__main__":
    target_url = 'https://www.yr.no/nb/sn%C3%B8dybder/NO-46/Norge/Vestland'
    snow_depth_df = scrape_snow_depth_data(target_url)

    if not snow_depth_df.empty:
        print("成功获取雪深数据:")
        print(snow_depth_df.head())
        print("\nDataFrame信息:")
        snow_depth_df.info()
    else:
        print("未能获取雪深数据。")

注意事项与最佳实践

  • HTML结构变化: 网页的HTML结构可能会随时间改变,这会导致您的选择器(如class_属性值)失效。定期检查目标网页的HTML结构是必要的。
  • 反爬机制: 某些网站可能有反爬虫机制,例如限制请求频率、检测User-Agent、验证码等。在进行大规模抓取时,需要考虑如何规避这些机制,例如设置请求头、使用代理IP、添加延迟等。
  • robots.txt: 在抓取任何网站之前,最好检查其robots.txt文件,了解网站所有者对爬虫的规定。
  • 错误处理: 在实际应用中,应加入更完善的错误处理机制,例如网络连接失败、HTML解析错误等,以提高程序的健壮性。
  • 数据清洗: 抓取到的原始数据可能包含不必要的空格、特殊字符或不一致的格式。在转换为DataFrame后,通常需要进行进一步的数据清洗和预处理。
  • 合法合规: 确保您的抓取行为符合网站的使用条款和相关法律法规,尊重网站的数据所有权。

总结

本教程演示了如何利用Python的requests、BeautifulSoup和pandas库协同工作,实现从复杂网页中抓取结构化表格数据并转换为易于分析的DataFrame。这种方法对于自动化数据收集和构建定制化数据集具有极高的实用价值。通过掌握这些技术,您可以有效地从互联网上获取所需信息,为后续的数据分析和应用奠定基础。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
Python爬虫获取数据的方法
Python爬虫获取数据的方法

Python爬虫可以通过请求库发送HTTP请求、解析库解析HTML、正则表达式提取数据,或使用数据抓取框架来获取数据。更多关于Python爬虫相关知识。详情阅读本专题下面的文章。php中文网欢迎大家前来学习。

293

2023.11.13

Python 时间序列分析与预测
Python 时间序列分析与预测

本专题专注讲解 Python 在时间序列数据处理与预测建模中的实战技巧,涵盖时间索引处理、周期性与趋势分解、平稳性检测、ARIMA/SARIMA 模型构建、预测误差评估,以及基于实际业务场景的时间序列项目实操,帮助学习者掌握从数据预处理到模型预测的完整时序分析能力。

61

2025.12.04

数据类型有哪几种
数据类型有哪几种

数据类型有整型、浮点型、字符型、字符串型、布尔型、数组、结构体和枚举等。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

309

2023.10.31

php数据类型
php数据类型

本专题整合了php数据类型相关内容,阅读专题下面的文章了解更多详细内容。

222

2025.10.31

pdf怎么转换成xml格式
pdf怎么转换成xml格式

将 pdf 转换为 xml 的方法:1. 使用在线转换器;2. 使用桌面软件(如 adobe acrobat、itext);3. 使用命令行工具(如 pdftoxml)。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

1901

2024.04.01

xml怎么变成word
xml怎么变成word

步骤:1. 导入 xml 文件;2. 选择 xml 结构;3. 映射 xml 元素到 word 元素;4. 生成 word 文档。提示:确保 xml 文件结构良好,并预览 word 文档以验证转换是否成功。想了解更多xml的相关内容,可以阅读本专题下面的文章。

2091

2024.08.01

xml是什么格式的文件
xml是什么格式的文件

xml是一种纯文本格式的文件。xml指的是可扩展标记语言,标准通用标记语言的子集,是一种用于标记电子文件使其具有结构性的标记语言。想了解更多相关的内容,可阅读本专题下面的相关文章。

1072

2024.11.28

string转int
string转int

在编程中,我们经常会遇到需要将字符串(str)转换为整数(int)的情况。这可能是因为我们需要对字符串进行数值计算,或者需要将用户输入的字符串转换为整数进行处理。php中文网给大家带来了相关的教程以及文章,欢迎大家前来学习阅读。

463

2023.08.02

java入门学习合集
java入门学习合集

本专题整合了java入门学习指南、初学者项目实战、入门到精通等等内容,阅读专题下面的文章了解更多详细学习方法。

1

2026.01.29

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
最新Python教程 从入门到精通
最新Python教程 从入门到精通

共4课时 | 22.4万人学习

Django 教程
Django 教程

共28课时 | 3.6万人学习

SciPy 教程
SciPy 教程

共10课时 | 1.3万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号