0

0

使用Beautiful Soup从网页提取价格时处理HTTP请求错误

花韻仙語

花韻仙語

发布时间:2025-10-13 11:55:19

|

409人浏览过

|

来源于php中文网

原创

使用beautiful soup从网页提取价格时处理http请求错误

本文旨在解决使用Beautiful Soup从网页提取数据时常见的“None”返回值问题,特别是当HTTP请求返回“400 Bad Request”错误时。我们将探讨HTTP请求头,特别是`User-Agent`的重要性,并提供调试步骤和正确的代码示例,以确保成功获取网页内容并解析目标数据,从而提升网页数据抓取的效率和准确性。

网页数据抓取:Beautiful Soup与HTTP请求头解析

网页数据抓取是自动化信息收集的关键技术之一。Python中的requests库用于发送HTTP请求,而Beautiful Soup库则负责解析HTML或XML文档,从中提取所需数据。然而,在实际操作中,我们经常会遇到soup.find()方法返回None的情况,这通常意味着Beautiful Soup未能找到指定的元素。这背后可能隐藏着多种原因,其中最常见且容易被忽视的,是HTTP请求本身未能成功获取到预期的网页内容。

常见问题:soup.find()返回None与“400 Bad Request”

考虑以下场景:我们尝试从一个电子商务网站提取商品价格,但执行代码后发现price_element变量的值为None。

import requests
from bs4 import BeautifulSoup

URL = "https://shop.beobasta.rs/proizvod/smrznuti-spanac/"
# 尝试使用自定义Header
header = {
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/119.0.0.0 Safari/537.36 OPR/105.0.0.0",
    "Accept-Language": "en-US,en;q=0.9"
}
response = requests.get(URL, headers=header)
soup = BeautifulSoup(response.text, 'html.parser')
price_element = soup.find("span", class_="woocommerce-Price-amount amount")
print(price_element) # 输出: None

当price_element为None时,首先需要检查的是BeautifulSoup对象soup中实际包含了什么内容。通过打印soup对象,我们可以发现问题所在:

print(soup)
# 可能的输出:
# 400 Bad Request

Bad Request

Your browser sent a request that this server could not understand.

这个输出明确指出服务器返回了“400 Bad Request”错误。这意味着我们的HTTP请求被服务器拒绝了,导致response.text中包含的不是目标网页的HTML内容,而是错误页面。因此,Beautiful Soup自然无法从一个错误页面中找到商品价格信息。

错误原因分析:HTTP请求头不兼容

“400 Bad Request”错误通常表明客户端发送的请求与服务器的期望不符。在本例中,问题出在自定义的header上。尽管我们试图模拟一个浏览器,但特定的User-Agent字符串可能不被目标网站接受,或者网站对某些User-Agent有特殊的处理逻辑。

Cutout.Pro抠图
Cutout.Pro抠图

AI批量抠图去背景

下载

许多网站会检查User-Agent头来判断请求是否来自合法的浏览器。如果User-Agent过于异常、过旧,或者包含网站不识别的标识符,服务器可能会拒绝请求,返回“400 Bad Request”或其他HTTP错误码(如“403 Forbidden”)。

解决方案:调整或简化HTTP请求头

解决这个问题的关键是提供一个服务器能够接受的HTTP请求头。有时,最简单的请求反而最有效。

1. 尝试不带自定义Header的请求: 最直接的方法是尝试不传递任何自定义header,让requests库使用其默认的User-Agent。对于许多网站,这已经足够。

import requests
from bs4 import BeautifulSoup

URL = "https://shop.beobasta.rs/proizvod/smrznuti-spanac/"
# 不带自定义Header发送请求
response = requests.get(URL) # 移除 headers=header
soup = BeautifulSoup(response.text, 'html.parser')

# 检查响应状态码和soup内容进行调试
print(f"HTTP Status Code: {response.status_code}")
# print(soup.prettify()) # 打印整个soup内容以检查是否是目标页面

price_element = soup.find("span", class_="woocommerce-Price-amount amount")
print(price_element)
# 预期输出: 299,00 RSD

如果上述代码仍然无法获取到正确内容,或者返回其他错误,说明网站可能确实需要一个更具欺骗性的User-Agent。

2. 使用一个常见且最新的浏览器User-Agent: 如果网站对User-Agent有更严格的检查,我们可以尝试使用一个常见的、最新的浏览器User-Agent字符串。可以通过在浏览器中访问“What is my User-Agent”等网站来获取当前浏览器的User-Agent。

import requests
from bs4 import BeautifulSoup

URL = "https://shop.beobasta.rs/proizvod/smrznuti-spanac/"
# 使用一个标准的Chrome User-Agent
header_fixed = {
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/120.0.0.0 Safari/537.36"
}
response = requests.get(URL, headers=header_fixed)
soup = BeautifulSoup(response.text, 'html.parser')

print(f"HTTP Status Code: {response.status_code}")
price_element = soup.find("span", class_="woocommerce-Price-amount amount")
print(price_element)

通过替换为一个更通用的User-Agent,我们成功欺骗了服务器,使其认为请求来自一个合法的浏览器,从而返回了正确的HTML内容。

总结与注意事项

  • 调试是关键: 当Beautiful Soup返回None时,首先应检查requests的响应状态码(response.status_code)和BeautifulSoup对象(print(soup.prettify()))的内容。这能帮助你快速判断是请求失败还是解析逻辑有误。
  • User-Agent的重要性: User-Agent是HTTP请求头中一个非常重要的字段,它告诉服务器客户端的类型(浏览器、操作系统等)。一些网站会根据User-Agent来提供不同的内容,或者阻止非浏览器请求。
  • 精简请求头: 并非所有的header字段都是必需的。在调试时,可以尝试从最简单的请求开始,然后根据需要逐步添加或修改header字段。
  • 遵守爬虫道德: 在进行网页抓取时,请务必遵守网站的robots.txt协议,并尊重网站的使用条款。频繁或恶意抓取可能导致IP被封禁。
  • 动态内容: 对于由JavaScript动态加载的内容,仅使用requests和Beautiful Soup可能无法获取。这时需要考虑使用Selenium等工具来模拟浏览器行为。

通过理解HTTP请求头的作用,特别是User-Agent,并掌握基本的调试技巧,我们可以更有效地解决网页抓取中遇到的“400 Bad Request”等问题,从而成功提取目标数据。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

通义千问
通义千问

阿里巴巴推出的全能AI助手

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
Python爬虫获取数据的方法
Python爬虫获取数据的方法

Python爬虫可以通过请求库发送HTTP请求、解析库解析HTML、正则表达式提取数据,或使用数据抓取框架来获取数据。更多关于Python爬虫相关知识。详情阅读本专题下面的文章。php中文网欢迎大家前来学习。

293

2023.11.13

python中print函数的用法
python中print函数的用法

python中print函数的语法是“print(value1, value2, ..., sep=' ', end=' ', file=sys.stdout, flush=False)”。本专题为大家提供print相关的文章、下载、课程内容,供大家免费下载体验。

186

2023.09.27

pdf怎么转换成xml格式
pdf怎么转换成xml格式

将 pdf 转换为 xml 的方法:1. 使用在线转换器;2. 使用桌面软件(如 adobe acrobat、itext);3. 使用命令行工具(如 pdftoxml)。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

1903

2024.04.01

xml怎么变成word
xml怎么变成word

步骤:1. 导入 xml 文件;2. 选择 xml 结构;3. 映射 xml 元素到 word 元素;4. 生成 word 文档。提示:确保 xml 文件结构良好,并预览 word 文档以验证转换是否成功。想了解更多xml的相关内容,可以阅读本专题下面的文章。

2094

2024.08.01

xml是什么格式的文件
xml是什么格式的文件

xml是一种纯文本格式的文件。xml指的是可扩展标记语言,标准通用标记语言的子集,是一种用于标记电子文件使其具有结构性的标记语言。想了解更多相关的内容,可阅读本专题下面的相关文章。

1084

2024.11.28

mysql标识符无效错误怎么解决
mysql标识符无效错误怎么解决

mysql标识符无效错误的解决办法:1、检查标识符是否被其他表或数据库使用;2、检查标识符是否包含特殊字符;3、使用引号包裹标识符;4、使用反引号包裹标识符;5、检查MySQL的配置文件等等。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

183

2023.12.04

Python标识符有哪些
Python标识符有哪些

Python标识符有变量标识符、函数标识符、类标识符、模块标识符、下划线开头的标识符、双下划线开头、双下划线结尾的标识符、整型标识符、浮点型标识符等等。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

289

2024.02.23

java标识符合集
java标识符合集

本专题整合了java标识符相关内容,想了解更多详细内容,请阅读下面的文章。

259

2025.06.11

2026赚钱平台入口大全
2026赚钱平台入口大全

2026年最新赚钱平台入口汇总,涵盖任务众包、内容创作、电商运营、技能变现等多类正规渠道,助你轻松开启副业增收之路。阅读专题下面的文章了解更多详细内容。

54

2026.01.31

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
React 教程
React 教程

共58课时 | 4.4万人学习

TypeScript 教程
TypeScript 教程

共19课时 | 2.6万人学习

Bootstrap 5教程
Bootstrap 5教程

共46课时 | 3.1万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号