0

0

使用Selenium和WebDriverWait解决动态网页产品数量抓取问题

碧海醫心

碧海醫心

发布时间:2025-10-15 10:22:39

|

813人浏览过

|

来源于php中文网

原创

使用Selenium和WebDriverWait解决动态网页产品数量抓取问题

本教程旨在解决使用`beautifulsoup`抓取动态网页产品数量时遇到的空值问题。文章将详细介绍如何利用`selenium`模拟浏览器行为,并通过`webdriverwait`机制确保目标元素完全加载并可见,从而成功提取动态加载的产品数量数据。内容涵盖`selenium`的基本设置、等待条件的运用以及两种健壮的元素定位策略。

动态网页数据抓取:从BeautifulSoup到Selenium

在进行网页数据抓取时,开发者常会遇到一个普遍问题:使用BeautifulSoup等静态解析库无法获取到某些看似存在于页面上的数据,最终返回空值。这通常是因为目标网页采用了JavaScript动态加载内容。BeautifulSoup只能解析requests库获取到的原始HTML响应,而无法执行页面上的JavaScript代码,因此那些由JavaScript在页面加载后动态生成或修改的内容,BeautifulSoup自然无法“看到”。

例如,当尝试从一个电商网站抓取产品总数时,如果该数量是通过异步请求(AJAX)获取并在页面上渲染的,那么在requests.get()返回的初始HTML中,该产品数量的占位符可能为空或根本不存在,导致BeautifulSoup.find()方法返回None。

为了解决这一问题,我们需要一个能够模拟真实浏览器行为、执行JavaScript并等待页面完全渲染的工具。Selenium正是为此而生。

Selenium简介与环境准备

Selenium是一个强大的浏览器自动化测试框架,但它同样适用于处理动态网页抓取任务。通过Selenium,我们可以启动一个真实的浏览器(如Chrome、Firefox),让它访问目标URL,等待页面上的JavaScript执行完毕,然后像用户一样与页面进行交互(点击按钮、填写表单),最后再从完全渲染的页面中提取数据。

环境准备:

  1. 安装Selenium库:
    pip install selenium
  2. 下载WebDriver:Selenium需要一个与你使用的浏览器版本匹配的WebDriver。例如,如果你使用Chrome浏览器,需要下载ChromeDriver。

核心机制:WebDriverWait与Expected Conditions

即使使用Selenium,页面上的动态内容也需要时间来加载。直接在页面加载后立即尝试查找元素可能会因为元素尚未渲染完成而失败。WebDriverWait是Selenium中用于处理这种异步加载情况的关键工具。它允许我们设置一个最长等待时间,并在此期间内反复检查某个“期望条件”(expected_conditions)是否满足。一旦条件满足,它会立即返回;如果超出最长等待时间仍未满足,则会抛出TimeoutException。

常用的expected_conditions包括:

  • visibility_of_element_located(): 元素在DOM中存在且可见。
  • element_to_be_clickable(): 元素可见并可点击。
  • presence_of_element_located(): 元素在DOM中存在(不一定可见)。

实施动态网页产品数量抓取

以下将展示如何使用Selenium和WebDriverWait从一个动态加载产品数量的页面中提取数据。

1. 导入必要的模块

首先,我们需要导入Selenium相关的模块:

from selenium import webdriver
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.common.by import By
from selenium.webdriver.support import expected_conditions as EC

2. 初始化WebDriver

选择你想要使用的浏览器,并初始化其WebDriver。这里以Chrome为例。

# 如果WebDriver在PATH中,可以直接这样初始化
driver = webdriver.Chrome()
# 如果WebDriver不在PATH中,需要指定路径
# driver = webdriver.Chrome(executable_path='/path/to/chromedriver')

3. 访问目标URL

使用driver.get()方法访问目标网页。

PPT.AI
PPT.AI

AI PPT制作工具

下载
url = 'https://www.digikey.com/en/products/filter/dc-dc-converters/922?s=N4IgjCBcpgnAHLKoDGUBmBDANgZwKYA0IA9lANogAMIAusQA4AuUIAykwE4CWAdgOYgAvkOIBWZCAZQwjaZDBUqIoA'
driver.get(url)

4. 处理Cookie同意弹窗(重要)

许多网站在首次访问时会显示Cookie同意弹窗。如果不处理,它可能会遮挡住我们想要抓取的元素,导致抓取失败。我们需要找到并点击同意按钮。

# 假设同意按钮的XPath是 "//span[@class='button-desktop' and @track-data='ref_page_event=Consent or View Privacy']"
try:
    WebDriverWait(driver, 20).until(
        EC.element_to_be_clickable((By.XPATH, "//span[@class='button-desktop' and @track-data='ref_page_event=Consent or View Privacy']"))
    ).click()
except Exception as e:
    print(f"Cookie consent button not found or not clickable: {e}")
    # 可以在这里选择忽略或进行其他处理

注意事项: Cookie弹窗的定位器可能会随网站更新而变化。请务必检查目标网站的HTML结构以获取正确的定位器。

5. 等待并提取产品数量

在处理完Cookie弹窗后,我们就可以等待产品数量元素加载并可见。这里提供两种健壮的定位策略:

策略一:使用data-testid属性

data-testid属性通常由前端开发者用于自动化测试,相对稳定且唯一,是定位元素的良好选择。

# 等待data-testid="static-product-count"的span元素可见
product_count_element = WebDriverWait(driver, 20).until(
    EC.visibility_of_element_located((By.XPATH, "//span[@data-testid='static-product-count']"))
)
product_count_text = product_count_element.text
print(f"产品数量 (通过data-testid): {product_count_text}")

策略二:使用包含特定文本的父元素

如果目标文本是“Results”或类似字样的一部分,我们可以定位到包含该文本的父元素,然后在其内部寻找产品数量的span。

# 等待包含“Results”文本的span元素下的span子元素可见
product_count_element_by_text = WebDriverWait(driver, 20).until(
    EC.visibility_of_element_located((By.XPATH, "//span[contains(., 'Results')]//span"))
)
product_count_text_by_text = product_count_element_by_text.text
print(f"产品数量 (通过包含'Results'文本): {product_count_text_by_text}")

6. 关闭WebDriver

完成数据抓取后,务必关闭浏览器实例,释放资源。

driver.quit()

完整示例代码

from selenium import webdriver
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.common.by import By
from selenium.webdriver.support import expected_conditions as EC
import time

# 1. 初始化WebDriver
# 确保你的ChromeDriver与Chrome浏览器版本匹配,并已放置在PATH中或指定了路径
driver = webdriver.Chrome()

url = 'https://www.digikey.com/en/products/filter/dc-dc-converters/922?s=N4IgjCBcpgnAHLKoDGUBmBDANgZwKYA0IA9lANogAMIAusQA4AuUIAykwE4CWAdgOYgAvkOIBWZCAZQwjaZDBUqIoA'

try:
    # 2. 访问目标URL
    driver.get(url)

    # 3. 处理Cookie同意弹窗
    # 这里的XPath需要根据实际网站结构进行调整
    cookie_consent_xpath = "//span[@class='button-desktop' and @track-data='ref_page_event=Consent or View Privacy']"
    try:
        WebDriverWait(driver, 10).until(
            EC.element_to_be_clickable((By.XPATH, cookie_consent_xpath))
        ).click()
        print("已点击Cookie同意按钮。")
        time.sleep(2) # 等待弹窗关闭和页面稳定
    except Exception:
        print("未找到或无需点击Cookie同意按钮。")

    # 4. 等待并提取产品数量 (策略一: 使用data-testid)
    print("\n--- 尝试使用data-testid提取产品数量 ---")
    data_testid_xpath = "//span[@data-testid='static-product-count']"
    try:
        product_count_element = WebDriverWait(driver, 20).until(
            EC.visibility_of_element_located((By.XPATH, data_testid_xpath))
        )
        product_count_text = product_count_element.text.strip()
        print(f"产品数量 (通过data-testid): {product_count_text}")
    except Exception as e:
        print(f"通过data-testid提取产品数量失败: {e}")

    # 5. 等待并提取产品数量 (策略二: 使用包含'Results'文本的父元素)
    print("\n--- 尝试使用包含'Results'文本的父元素提取产品数量 ---")
    results_xpath = "//span[contains(., 'Results')]//span"
    try:
        product_count_element_by_text = WebDriverWait(driver, 20).until(
            EC.visibility_of_element_located((By.XPATH, results_xpath))
        )
        product_count_text_by_text = product_count_element_by_text.text.strip()
        print(f"产品数量 (通过包含'Results'文本): {product_count_text_by_text}")
    except Exception as e:
        print(f"通过包含'Results'文本提取产品数量失败: {e}")

except Exception as e:
    print(f"发生错误: {e}")
finally:
    # 6. 关闭WebDriver
    driver.quit()
    print("\nWebDriver已关闭。")

预期输出示例:

已点击Cookie同意按钮。

--- 尝试使用data-testid提取产品数量 ---
产品数量 (通过data-testid): 248,154

--- 尝试使用包含'Results'文本的父元素提取产品数量 ---
产品数量 (通过包含'Results'文本): 248,154

WebDriver已关闭。

总结与注意事项

  • 选择合适的工具: 对于静态网页,requests和BeautifulSoup是高效且轻量级的选择。对于动态加载内容的网页,Selenium是更可靠的解决方案。
  • WebDriverWait的重要性: 在使用Selenium时,切勿直接在页面加载后立即尝试查找元素。务必结合WebDriverWait和expected_conditions,以确保目标元素已完全加载并可见,从而避免NoSuchElementException。
  • 健壮的定位器: 选择稳定且唯一的元素定位器至关重要。data-testid、id、name通常比class或文本内容更稳定。当这些不可用时,考虑使用相对XPath或CSS选择器。
  • 处理弹窗与交互: 许多网站包含Cookie同意弹窗、登录弹窗等,它们可能会阻碍数据抓取。需要编写代码来定位并与这些弹窗进行交互(如点击关闭或同意)。
  • 资源管理: 每次使用Selenium后,务必调用driver.quit()来关闭浏览器实例,释放系统资源。
  • 无头模式: 在生产环境中,为了提高效率和节省资源,可以考虑使用Selenium的无头模式(Headless Mode),即在没有图形界面的情况下运行浏览器。
    from selenium.webdriver.chrome.options import Options
    chrome_options = Options()
    chrome_options.add_argument("--headless")
    driver = webdriver.Chrome(options=chrome_options)

通过掌握Selenium和WebDriverWait,你将能够有效地应对绝大多数动态网页的数据抓取挑战。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

WorkBuddy
WorkBuddy

腾讯云推出的AI原生桌面智能体工作台

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
ajax教程
ajax教程

php中文网为大家带来ajax教程合集,Ajax是一种用于创建快速动态网页的技术。通过在后台与服务器进行少量数据交换,Ajax可以使网页实现异步更新。这意味着可以在不重新加载整个网页的情况下,对网页的某部分进行更新。php中文网还为大家带来ajax的相关下载资源、相关课程以及相关文章等内容,供大家免费下载使用。

166

2023.06.14

ajax中文乱码解决方法
ajax中文乱码解决方法

ajax中文乱码解决方法有设置请求头部的字符编码、在服务器端设置响应头部的字符编码和使用encodeURIComponent对中文进行编码。本专题为大家提供ajax中文乱码相关的文章、下载、课程内容,供大家免费下载体验。

170

2023.08.31

ajax传递中文乱码怎么办
ajax传递中文乱码怎么办

ajax传递中文乱码的解决办法:1、设置统一的编码方式;2、服务器端编码;3、客户端解码;4、设置HTTP响应头;5、使用JSON格式。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

124

2023.11.15

ajax网站有哪些
ajax网站有哪些

使用ajax的网站有谷歌、维基百科、脸书、纽约时报、亚马逊、stackoverflow、twitter、hacker news、shopify和basecamp等。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

259

2024.09.24

chrome什么意思
chrome什么意思

chrome是浏览器的意思,由Google开发的网络浏览器,它在2008年首次发布,并迅速成为全球最受欢迎的浏览器之一。本专题为大家提供chrome相关的文章、下载、课程内容,供大家免费下载体验。

1059

2023.08.11

chrome无法加载插件怎么办
chrome无法加载插件怎么办

chrome无法加载插件可以通过检查插件是否已正确安装、禁用和启用插件、清除插件缓存、更新浏览器和插件、检查网络连接和尝试在隐身模式下加载插件方法解决。更多关于chrome相关问题,详情请看本专题下面的文章。php中文网欢迎大家前来学习。

840

2023.11.06

Python爬虫获取数据的方法
Python爬虫获取数据的方法

Python爬虫可以通过请求库发送HTTP请求、解析库解析HTML、正则表达式提取数据,或使用数据抓取框架来获取数据。更多关于Python爬虫相关知识。详情阅读本专题下面的文章。php中文网欢迎大家前来学习。

293

2023.11.13

cookie
cookie

Cookie 是一种在用户计算机上存储小型文本文件的技术,用于在用户与网站进行交互时收集和存储有关用户的信息。当用户访问一个网站时,网站会将一个包含特定信息的 Cookie 文件发送到用户的浏览器,浏览器会将该 Cookie 存储在用户的计算机上。之后,当用户再次访问该网站时,浏览器会向服务器发送 Cookie,服务器可以根据 Cookie 中的信息来识别用户、跟踪用户行为等。

6500

2023.06.30

TypeScript类型系统进阶与大型前端项目实践
TypeScript类型系统进阶与大型前端项目实践

本专题围绕 TypeScript 在大型前端项目中的应用展开,深入讲解类型系统设计与工程化开发方法。内容包括泛型与高级类型、类型推断机制、声明文件编写、模块化结构设计以及代码规范管理。通过真实项目案例分析,帮助开发者构建类型安全、结构清晰、易维护的前端工程体系,提高团队协作效率与代码质量。

25

2026.03.13

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
Sass 教程
Sass 教程

共14课时 | 0.9万人学习

Bootstrap 5教程
Bootstrap 5教程

共46课时 | 3.6万人学习

CSS教程
CSS教程

共754课时 | 42.8万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号