0

0

使用BeautifulSoup处理缺失元素:构建健壮的网页数据抓取教程

霞舞

霞舞

发布时间:2025-10-07 13:21:00

|

367人浏览过

|

来源于php中文网

原创

使用BeautifulSoup处理缺失元素:构建健壮的网页数据抓取教程

本教程详细介绍了如何使用Python的requests和BeautifulSoup库进行网页数据抓取,并重点解决在抓取过程中因目标元素缺失导致数据错位的问题。通过迭代父级容器、条件式地提取子元素以及使用numpy.nan填充缺失值,确保数据准确对齐,最终生成结构化的Pandas DataFrame。

1. 引言:网页数据抓取的挑战与数据对齐问题

在进行网页数据抓取(web scraping)时,我们常常会遇到目标网站结构不完全一致的情况。例如,某些数据记录可能包含所有预期的字段,而另一些记录则可能缺少部分字段。如果我们在抓取时未能妥善处理这些缺失的元素,很可能导致最终收集到的数据出现错位,从而影响数据的准确性和可用性。

本教程将以抓取漫画店名称及其网站为例,演示如何使用requests和BeautifulSoup库,结合pandas和numpy,构建一个健壮的抓取脚本,以确保即使在部分信息缺失的情况下,也能正确地将数据对齐。

2. 准备工作:所需库的安装

在开始之前,请确保您已经安装了以下Python库:

  • requests: 用于发送HTTP请求,获取网页内容。
  • BeautifulSoup4: 用于解析HTML和XML文档,从中提取数据。
  • pandas: 用于数据处理和分析,特别是构建DataFrame。
  • numpy: 提供nan(非数字)值,用于表示缺失数据。

您可以使用pip安装它们:

pip install requests beautifulsoup4 pandas numpy

3. 核心思路:按记录迭代与条件式提取

解决数据错位的关键在于按记录迭代。而不是分别抓取所有名称和所有网站,我们应该找到一个能够代表单个数据记录(例如,单个商店)的父级HTML元素,然后在这个父级元素内部提取该记录的所有相关信息。如果某个信息不存在,我们则明确地用一个占位符(如np.nan)来表示。

对于本例,我们观察目标网页结构,发现每个商店的信息都被包裹在一个div标签中,其class为CslsLocationItem。这将是我们迭代的基石。

3.1 抓取主页面数据

首先,我们需要发送HTTP请求获取主页面的HTML内容,并使用BeautifulSoup进行解析。

import requests
import numpy as np
import pandas as pd
from bs4 import BeautifulSoup

# 目标URL
url = "https://www.comicshoplocator.com/StoreLocatorPremier?query=75077&showCsls=true"

# 发送请求并解析HTML
response = requests.get(url)
soup = BeautifulSoup(response.content, "html.parser")

# 用于存储所有商店数据的列表
all_data = []

3.2 迭代商店记录并提取信息

接下来,我们将遍历所有CslsLocationItem元素。对于每个商店,我们将执行以下步骤:

Cliclic AI
Cliclic AI

Cliclic商品背景图编辑器是一款功能强大的AI工具,帮助用户快速生成具有吸引力的商品图背景。

下载
  1. 提取商店名称。
  2. 检查是否存在指向商店详情页的链接。
  3. 如果存在详情页链接,则访问该页面并提取网站链接。
  4. 如果不存在详情页链接或详情页中没有网站链接,则用np.nan填充。
for shop in soup.select(".CslsLocationItem"):
    # 1. 提取商店名称
    # 使用.select_one()确保只获取第一个匹配项
    name_tag = shop.select_one(".LocationName")
    name = name_tag.text if name_tag else np.nan # 确保元素存在

    # 2. 检查是否存在商店详情页链接
    profile_link_tag = shop.select_one(".LocationShopProfile a")
    website_url = np.nan # 默认网站链接为NaN

    if profile_link_tag:
        # 如果存在详情页链接,则构建完整URL并访问
        profile_page_url = "https://www.comicshoplocator.com" + profile_link_tag["href"]
        profile_response = requests.get(profile_page_url)
        profile_soup = BeautifulSoup(profile_response.content, "html.parser")

        # 3. 在详情页中提取网站链接
        web_link_tag = profile_soup.select_one(".StoreWeb a")
        if web_link_tag:
            website_url = web_link_tag["href"]
        # else: website_url 保持为 np.nan

    # 将名称和网站URL作为元组添加到列表中
    all_data.append((name, website_url))

代码解析与改进点:

  • soup.select(".CslsLocationItem"): 使用CSS选择器select()方法可以高效地选择所有匹配的元素。CslsLocationItem是每个商店信息块的父容器。
  • shop.select_one(".LocationName"): 在每个shop元素内部,使用select_one()来查找唯一的商店名称元素。select_one()返回第一个匹配的元素或None。
  • 条件检查 if name_tag:: 在尝试访问name_tag.text之前,先检查name_tag是否存在,防止AttributeError。
  • 嵌套请求: 当发现profile_link_tag时,我们才发起第二个HTTP请求去抓取商店详情页。这避免了不必要的请求,并且将网站信息的提取逻辑封装在条件分支内。
  • u["href"] if u else np.nan: 这是一个简洁的Python三元表达式,用于在元素存在时提取href属性,否则直接使用np.nan。这确保了即使没有网站链接,该商店的网站字段也会被正确地标记为缺失值,而不是导致数据错位。
  • np.nan: numpy.nan是表示缺失值的标准方式,尤其在与Pandas DataFrame结合使用时,它能被Pandas很好地识别和处理。

4. 构建Pandas DataFrame

抓取完所有数据后,我们可以将其转换为一个结构化的Pandas DataFrame,以便于后续的数据分析和存储。

# 使用抓取到的数据创建DataFrame
df = pd.DataFrame(all_data, columns=["Name", "Website"])

# 打印结果(以Markdown表格形式,便于查看)
print(df.to_markdown(index=False))

预期输出示例:

| Name                      | Website                          |
|:--------------------------|:---------------------------------|
| TWENTY ELEVEN COMICS      | http://WWW.TWENTYELEVENCOMICS.COM |
| READ COMICS               | nan                              |
| BOOMERANG COMICS          | http://www.boomerangcomics.com   |
| MORE FUN COMICS AND GAMES | http://www.facebook.com/morefuncomics |
| MADNESS COMICS & GAMES    | http://www.madnesscomicsandgames.com |
| SANCTUARY BOOKS AND GAMES | nan                              |

可以看到,READ COMICS和SANCTUARY BOOKS AND GAMES由于没有对应的网站信息,其Website列被正确地填充为nan,而其他商店的数据则准确对齐。

5. 完整代码示例

import requests
import numpy as np
import pandas as pd
from bs4 import BeautifulSoup

def scrape_comic_shops(query_zip_code="75077"):
    """
    抓取指定邮政编码区域的漫画店名称和网站。

    Args:
        query_zip_code (str): 查询的邮政编码。

    Returns:
        pd.DataFrame: 包含漫画店名称和网站的DataFrame。
                      如果网站不存在,则对应值为np.nan。
    """
    base_url = "https://www.comicshoplocator.com"
    search_url = f"{base_url}/StoreLocatorPremier?query={query_zip_code}&showCsls=true"

    try:
        response = requests.get(search_url)
        response.raise_for_status() # 检查HTTP请求是否成功
    except requests.exceptions.RequestException as e:
        print(f"请求主页面失败: {e}")
        return pd.DataFrame(columns=["Name", "Website"])

    soup = BeautifulSoup(response.content, "html.parser")
    all_data = []

    # 遍历每个商店的父容器
    for shop in soup.select(".CslsLocationItem"):
        name_tag = shop.select_one(".LocationName")
        name = name_tag.text.strip() if name_tag else np.nan

        profile_link_tag = shop.select_one(".LocationShopProfile a")
        website_url = np.nan

        if profile_link_tag and 'href' in profile_link_tag.attrs:
            profile_path = profile_link_tag["href"]
            profile_page_url = f"{base_url}{profile_path}"

            try:
                profile_response = requests.get(profile_page_url)
                profile_response.raise_for_status()
                profile_soup = BeautifulSoup(profile_response.content, "html.parser")

                web_link_tag = profile_soup.select_one(".StoreWeb a")
                if web_link_tag and 'href' in web_link_tag.attrs:
                    website_url = web_link_tag["href"].strip()
            except requests.exceptions.RequestException as e:
                print(f"请求商店详情页 {profile_page_url} 失败: {e}")
                # 如果请求失败,website_url 保持为 np.nan

        all_data.append((name, website_url))

    df = pd.DataFrame(all_data, columns=["Name", "Website"])
    return df

if __name__ == "__main__":
    df_result = scrape_comic_shops(query_zip_code="75077")
    print("抓取结果:")
    print(df_result.to_markdown(index=False))

6. 注意事项与最佳实践

  • 错误处理: 在实际的抓取任务中,网络请求可能会失败(例如,网络连接问题、服务器错误)。使用try-except块来捕获requests.exceptions.RequestException可以使您的脚本更加健壮。
  • 用户代理 (User-Agent): 某些网站可能会检查请求的User-Agent头。在requests.get()中添加headers参数可以模拟浏览器请求,减少被阻止的可能性。
  • 网站结构变化: 网页结构可能会随时改变。如果脚本突然失效,通常是由于网站HTML结构发生了变化,需要更新相应的CSS选择器。
  • 道德与法律: 在进行网页抓取时,请务必遵守网站的robots.txt协议,并尊重网站的使用条款。避免对网站造成过大负担(例如,短时间内发送大量请求),可以考虑引入延时(time.sleep())。
  • 数据清洗: 抓取到的文本数据可能包含额外的空白字符或不必要的http://前缀。使用strip()、replace()等字符串方法进行清洗是良好的习惯。

7. 总结

本教程演示了如何使用requests和BeautifulSoup库,通过“按记录迭代”和“条件式提取”的策略,有效地解决了网页抓取中因元素缺失导致的数据错位问题。通过将每个记录的名称和其对应的(可能缺失的)网站信息作为一个整体进行处理,并利用numpy.nan填充缺失值,我们能够构建一个健壮且输出数据准确对齐的抓取脚本。掌握这些技巧对于任何需要从非结构化网页数据中提取结构化信息的任务都至关重要。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

WorkBuddy
WorkBuddy

腾讯云推出的AI原生桌面智能体工作台

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
Python爬虫获取数据的方法
Python爬虫获取数据的方法

Python爬虫可以通过请求库发送HTTP请求、解析库解析HTML、正则表达式提取数据,或使用数据抓取框架来获取数据。更多关于Python爬虫相关知识。详情阅读本专题下面的文章。php中文网欢迎大家前来学习。

293

2023.11.13

Python 时间序列分析与预测
Python 时间序列分析与预测

本专题专注讲解 Python 在时间序列数据处理与预测建模中的实战技巧,涵盖时间索引处理、周期性与趋势分解、平稳性检测、ARIMA/SARIMA 模型构建、预测误差评估,以及基于实际业务场景的时间序列项目实操,帮助学习者掌握从数据预处理到模型预测的完整时序分析能力。

80

2025.12.04

Python 数据清洗与预处理实战
Python 数据清洗与预处理实战

本专题系统讲解 Python 在数据清洗与预处理中的核心技术,包括使用 Pandas 进行缺失值处理、异常值检测、数据格式化、特征工程与数据转换,结合 NumPy 高效处理大规模数据。通过实战案例,帮助学习者掌握 如何处理混乱、不完整数据,为后续数据分析与机器学习模型训练打下坚实基础。

32

2026.01.31

pip安装使用方法
pip安装使用方法

安装步骤:1、确保Python已经正确安装在您的计算机上;2、下载“get-pip.py”脚本;3、按下Win + R键,然后输入cmd并按下Enter键来打开命令行窗口;4、在命令行窗口中,使用cd命令切换到“get-pip.py”所在的目录;5、执行安装命令;6、验证安装结果即可。大家可以访问本专题下的文章,了解pip安装使用方法的更多内容。

373

2023.10.09

更新pip版本
更新pip版本

更新pip版本方法有使用pip自身更新、使用操作系统自带的包管理工具、使用python包管理工具、手动安装最新版本。想了解更多相关的内容,请阅读专题下面的文章。

437

2024.12.20

pip设置清华源
pip设置清华源

设置方法:1、打开终端或命令提示符窗口;2、运行“touch ~/.pip/pip.conf”命令创建一个名为pip的配置文件;3、打开pip.conf文件,然后添加“[global];index-url = https://pypi.tuna.tsinghua.edu.cn/simple”内容,这将把pip的镜像源设置为清华大学的镜像源;4、保存并关闭文件即可。

803

2024.12.23

python升级pip
python升级pip

本专题整合了python升级pip相关教程,阅读下面的文章了解更多详细内容。

371

2025.07.23

if什么意思
if什么意思

if的意思是“如果”的条件。它是一个用于引导条件语句的关键词,用于根据特定条件的真假情况来执行不同的代码块。本专题提供if什么意思的相关文章,供大家免费阅读。

847

2023.08.22

TypeScript类型系统进阶与大型前端项目实践
TypeScript类型系统进阶与大型前端项目实践

本专题围绕 TypeScript 在大型前端项目中的应用展开,深入讲解类型系统设计与工程化开发方法。内容包括泛型与高级类型、类型推断机制、声明文件编写、模块化结构设计以及代码规范管理。通过真实项目案例分析,帮助开发者构建类型安全、结构清晰、易维护的前端工程体系,提高团队协作效率与代码质量。

26

2026.03.13

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
Sass 教程
Sass 教程

共14课时 | 0.9万人学习

Bootstrap 5教程
Bootstrap 5教程

共46课时 | 3.6万人学习

CSS教程
CSS教程

共754课时 | 42.9万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号