0

0

解决网页数据抓取中数据错位问题的教程:统一处理与缺失值管理

心靈之曲

心靈之曲

发布时间:2025-10-07 10:48:02

|

294人浏览过

|

来源于php中文网

原创

解决网页数据抓取中数据错位问题的教程:统一处理与缺失值管理

在网页数据抓取中,当目标元素(如网站链接)并非所有记录都存在时,传统的独立循环抓取方式容易导致数据错位。本教程将介绍一种通过统一迭代父级元素、在单个循环内处理所有子元素,并利用条件判断优雅地处理缺失数据的方法,确保最终生成的数据集结构完整且数据对齐,从而避免Pandas DataFrame中出现列值与行不匹配的问题。

网页数据抓取中的数据对齐挑战

在进行网页数据抓取时,常见的问题之一是当某些字段(例如,一个商店的网站链接)并非对所有记录都可用时,数据在最终的表格或dataframe中可能会出现错位。原始的抓取逻辑可能倾向于分别处理不同类型的数据(如先抓取所有商店名称,再抓取所有网站链接),如果网站链接的数量少于商店名称的数量,或者链接与名称的顺序因缺失项而被打乱,就会导致数据列之间无法正确匹配。

例如,在一个抓取商店名称和网站的场景中,如果某些商店没有提供网站链接,而抓取代码没有妥善处理这种情况,那么在构建最终的DataFrame时,网站列的数据就会向上“漂移”,错误地匹配到不属于它的商店,从而导致数据完整性受损。

解决方案:统一迭代与缺失值处理

解决此类问题的核心在于确保每个“逻辑单元”(在本例中是每个商店)的所有相关数据都在同一个迭代周期内被处理和收集。这意味着我们需要找到一个能代表每个独立记录的父级HTML元素,然后在这个父级元素的范围内,尝试提取所有所需的信息。如果某个信息不存在,我们应明确地为其指定一个缺失值(如 None 或 numpy.nan),而不是简单地跳过,以保持数据的对齐。

以下是实现这一策略的详细步骤和示例代码:

1. 导入必要的库

首先,我们需要 requests 库来发送HTTP请求,BeautifulSoup 来解析HTML,以及 pandas 和 numpy 来处理数据和表示缺失值。

import requests
import numpy as np
import pandas as pd
from bs4 import BeautifulSoup

2. 发送请求并解析主页面

指定目标URL,使用 requests.get() 获取页面内容,然后用 BeautifulSoup 进行解析。

url = "https://www.comicshoplocator.com/StoreLocatorPremier?query=75077&showCsls=true"
response = requests.get(url)
response.raise_for_status() # 检查请求是否成功
soup = BeautifulSoup(response.content, "html.parser")

3. 迭代每个独立的数据项

关键一步是识别并迭代每个代表一个独立记录的父级HTML元素。通过观察网页结构,我们发现每个商店的信息都包含在 div 标签且 class 为 CslsLocationItem 的元素中。

智川X-Agent
智川X-Agent

中科闻歌推出的一站式AI智能体开发平台

下载
all_data = [] # 用于存储所有抓取到的数据
for shop in soup.select(".CslsLocationItem"):
    # 在此循环内部处理每个商店的所有信息
    # ...

4. 提取商店名称

在每个 shop 元素内部,我们可以使用 select_one() 方法来精确地选择商店名称。select_one() 会返回第一个匹配的元素,如果没有匹配项则返回 None,这对于处理可能缺失的元素非常有用。

    name = shop.select_one(".LocationName").text.strip() # .text.strip() 获取文本并去除空白

5. 有条件地获取商店详情页链接

接下来,我们需要检查当前商店是否有“Shop Profile”链接。如果存在,我们才需要访问其详情页以获取更多信息。

    profile_link_element = shop.select_one(".LocationShopProfile a")
    website_url = np.nan # 默认网站链接为NaN

    if profile_link_element:
        profile_url_suffix = profile_link_element["href"]
        full_profile_url = "https://www.comicshoplocator.com" + profile_url_suffix

        # 访问商店详情页
        profile_response = requests.get(full_profile_url)
        profile_response.raise_for_status()
        profile_soup = BeautifulSoup(profile_response.content, "html.parser")

        # 从详情页中提取网站链接
        store_web_element = profile_soup.select_one(".StoreWeb a")
        if store_web_element:
            website_url = store_web_element["href"]

6. 存储数据

在每个循环结束时,将当前商店的名称和网站链接(无论是否找到)作为一个元组添加到 all_data 列表中。

    all_data.append((name, website_url))

7. 构建Pandas DataFrame

所有数据收集完毕后,使用 all_data 列表创建一个Pandas DataFrame,并指定列名。

df = pd.DataFrame(all_data, columns=["Name", "Website"])

完整示例代码

import requests
import numpy as np
import pandas as pd
from bs4 import BeautifulSoup

# 目标URL
url = "https://www.comicshoplocator.com/StoreLocatorPremier?query=75077&showCsls=true"

# 发送请求并解析主页面
try:
    response = requests.get(url)
    response.raise_for_status()  # 检查HTTP请求是否成功
    soup = BeautifulSoup(response.content, "html.parser")
except requests.exceptions.RequestException as e:
    print(f"请求失败: {e}")
    exit()

all_data = []
# 迭代每个商店的父级元素
for shop in soup.select(".CslsLocationItem"):
    name = shop.select_one(".LocationName").text.strip()

    profile_link_element = shop.select_one(".LocationShopProfile a")
    website_url = np.nan  # 默认网站链接为NaN

    if profile_link_element:
        profile_url_suffix = profile_link_element["href"]
        full_profile_url = "https://www.comicshoplocator.com" + profile_url_suffix

        try:
            # 访问商店详情页
            profile_response = requests.get(full_profile_url)
            profile_response.raise_for_status()
            profile_soup = BeautifulSoup(profile_response.content, "html.parser")

            # 从详情页中提取网站链接
            store_web_element = profile_soup.select_one(".StoreWeb a")
            if store_web_element:
                website_url = store_web_element["href"]
        except requests.exceptions.RequestException as e:
            print(f"访问商店详情页 {full_profile_url} 失败: {e}")
            # 如果详情页访问失败,网站链接仍为NaN

    all_data.append((name, website_url))

# 创建Pandas DataFrame
df = pd.DataFrame(all_data, columns=["Name", "Website"])

# 打印结果
print(df.to_markdown(index=False))

输出示例

| Name                      | Website                                  |
|:--------------------------|:-----------------------------------------|
| TWENTY ELEVEN COMICS      | http://WWW.TWENTYELEVENCOMICS.COM        |
| READ COMICS               | nan                                      |
| BOOMERANG COMICS          | http://www.boomerangcomics.com           |
| MORE FUN COMICS AND GAMES | http://www.facebook.com/morefuncomics    |
| MADNESS COMICS & GAMES    | http://www.madnesscomicsandgames.com     |
| SANCTUARY BOOKS AND GAMES | nan                                      |

注意事项与最佳实践

  1. 错误处理 (try-except): 在进行网络请求时,应始终包含 try-except 块来捕获 requests.exceptions.RequestException 等错误,以提高代码的健壮性。
  2. select_one() 的使用: BeautifulSoup 的 select_one() 方法非常适合选择单个元素,并且在元素不存在时返回 None,这简化了缺失值的判断。
  3. np.nan 或 None: 使用 numpy.nan 来表示数值型缺失值,或使用 None 来表示通用型缺失值,这对于Pandas DataFrame的后续处理非常重要。
  4. 数据清洗: 抓取到的文本数据可能包含多余的空格或换行符,使用 .strip() 方法可以有效清除这些不必要的字符。
  5. 网站结构变化: 网页的HTML结构可能会随时改变。因此,定期检查选择器(如 .CslsLocationItem, .LocationName 等)的有效性是必要的。
  6. 请求频率: 频繁地向同一网站发送请求可能会被服务器限制或封禁。考虑添加 time.sleep() 来引入延迟,模拟人类行为,并遵守网站的 robots.txt 规则。

总结

通过采用统一迭代父级元素并在单个循环内处理所有子元素的策略,并结合条件判断来优雅地处理缺失数据,我们可以有效地解决网页抓取中数据错位的问题。这种方法确保了数据的完整性和对齐性,为后续的数据分析和处理奠定了坚实的基础。在实际应用中,结合健壮的错误处理和良好的实践,可以构建出高效且可靠的网页数据抓取工具

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
Python爬虫获取数据的方法
Python爬虫获取数据的方法

Python爬虫可以通过请求库发送HTTP请求、解析库解析HTML、正则表达式提取数据,或使用数据抓取框架来获取数据。更多关于Python爬虫相关知识。详情阅读本专题下面的文章。php中文网欢迎大家前来学习。

293

2023.11.13

Python 时间序列分析与预测
Python 时间序列分析与预测

本专题专注讲解 Python 在时间序列数据处理与预测建模中的实战技巧,涵盖时间索引处理、周期性与趋势分解、平稳性检测、ARIMA/SARIMA 模型构建、预测误差评估,以及基于实际业务场景的时间序列项目实操,帮助学习者掌握从数据预处理到模型预测的完整时序分析能力。

79

2025.12.04

Python 数据清洗与预处理实战
Python 数据清洗与预处理实战

本专题系统讲解 Python 在数据清洗与预处理中的核心技术,包括使用 Pandas 进行缺失值处理、异常值检测、数据格式化、特征工程与数据转换,结合 NumPy 高效处理大规模数据。通过实战案例,帮助学习者掌握 如何处理混乱、不完整数据,为后续数据分析与机器学习模型训练打下坚实基础。

32

2026.01.31

class在c语言中的意思
class在c语言中的意思

在C语言中,"class" 是一个关键字,用于定义一个类。想了解更多class的相关内容,可以阅读本专题下面的文章。

870

2024.01.03

python中class的含义
python中class的含义

本专题整合了python中class的相关内容,阅读专题下面的文章了解更多详细内容。

30

2025.12.06

http500解决方法
http500解决方法

http500解决方法有检查服务器日志、检查代码错误、检查服务器配置、检查文件和目录权限、检查资源不足、更新软件版本、重启服务器或寻求专业帮助等。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

495

2023.11.09

http请求415错误怎么解决
http请求415错误怎么解决

解决方法:1、检查请求头中的Content-Type;2、检查请求体中的数据格式;3、使用适当的编码格式;4、使用适当的请求方法;5、检查服务器端的支持情况。更多http请求415错误怎么解决的相关内容,可以阅读下面的文章。

450

2023.11.14

HTTP 503错误解决方法
HTTP 503错误解决方法

HTTP 503错误表示服务器暂时无法处理请求。想了解更多http错误代码的相关内容,可以阅读本专题下面的文章。

3538

2024.03.12

C# ASP.NET Core微服务架构与API网关实践
C# ASP.NET Core微服务架构与API网关实践

本专题围绕 C# 在现代后端架构中的微服务实践展开,系统讲解基于 ASP.NET Core 构建可扩展服务体系的核心方法。内容涵盖服务拆分策略、RESTful API 设计、服务间通信、API 网关统一入口管理以及服务治理机制。通过真实项目案例,帮助开发者掌握构建高可用微服务系统的关键技术,提高系统的可扩展性与维护效率。

76

2026.03.11

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
Bootstrap 5教程
Bootstrap 5教程

共46课时 | 3.6万人学习

AngularJS教程
AngularJS教程

共24课时 | 4.1万人学习

CSS教程
CSS教程

共754课时 | 42.2万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号