0

0

Python网络爬虫:处理重定向、动态内容与会话管理策略

DDD

DDD

发布时间:2025-11-25 11:23:23

|

794人浏览过

|

来源于php中文网

原创

Python网络爬虫:处理重定向、动态内容与会话管理策略

本文旨在解决使用beautifulsoup进行网页抓取时,因页面重定向、动态内容加载及会话管理不当导致元素无法选中的问题。我们将探讨`requests`结合`beautifulsoup`与`splinter`等无头浏览器工具的适用场景,并提供详细的解决方案,包括如何分析网站行为、处理免责声明、管理cookie与session,以确保成功获取目标网页数据。

1. 理解网页抓取失败的常见原因

在使用Python进行网页抓取时,初学者常遇到的一个问题是,即使目标元素在浏览器中可见,但通过requests库获取的HTML内容并用BeautifulSoup解析后,却无法找到该元素,或者返回None。这通常不是BeautifulSoup本身的问题,而是因为获取到的HTML并非我们期望的最终渲染页面。主要原因包括:

  • HTTP重定向(Redirects):原始URL可能只是一个入口,服务器会将其重定向到其他页面。requests库默认会跟随重定向,但可能最终停留在并非目标数据所在的页面。
  • 免责声明或同意页面:许多网站在用户访问核心内容前,会强制要求用户同意某些条款(如免责声明、Cookie政策),这需要用户进行交互(点击按钮),否则无法进入目标页面。
  • Cookie与会话(Session)管理:网站可能依赖Cookie来维护用户会话状态。例如,同意免责声明后,服务器会设置一个特定的Cookie(如DISCLAIMER=1)来标识用户已同意。后续请求必须携带此Cookie才能访问受保护内容。
  • JavaScript动态加载内容:如果目标数据是通过JavaScript在客户端动态渲染的,那么requests获取的原始HTML中可能不包含这些数据。BeautifulSoup只能解析静态HTML。

2. 分析目标网站行为

在编写爬虫之前,深入分析目标网站的行为至关重要。这通常通过浏览器的开发者工具(F12)完成,特别是“网络”(Network)选项卡。

  1. 跟踪重定向链:访问初始URL,观察网络请求,查看是否有301或302状态码的重定向。记录最终着陆的URL。
  2. 识别交互式元素:检查页面上是否存在“同意”、“接受”等按钮。尝试点击它们,并观察点击后网络请求的变化,尤其是Cookie的设置。
  3. 检查Cookie:在“应用”(Application)或“存储”(Storage)选项卡中,查看网站设置了哪些Cookie,以及它们的值。特别关注那些在完成特定操作(如同意免责声明)后才出现的Cookie。
  4. 识别动态内容:如果在原始HTML中找不到目标元素,但浏览器中可见,则很可能是JavaScript动态加载。

3. 解决方案一:使用无头浏览器(Splinter/Selenium)

对于需要用户交互、处理JavaScript动态内容或复杂会话管理的场景,使用无头浏览器(如Splinter或Selenium)是更直接有效的方案。它们能够模拟真实用户的浏览器行为,包括点击、填写表单、等待JavaScript加载等。

优势:

立即学习Python免费学习笔记(深入)”;

  • 自动处理重定向、Cookie和JavaScript渲染。
  • 简化了交互逻辑。

劣势:

  • 运行速度相对较慢。
  • 资源消耗较高。

示例代码:使用Splinter处理免责声明与页面导航

from splinter import Browser
from bs4 import BeautifulSoup as soup
from webdriver_manager.chrome import ChromeDriverManager
import time

def scrape_property_info_with_splinter(initial_url):
    """
    使用Splinter模拟浏览器行为,处理重定向和免责声明,然后抓取目标数据。
    """
    # 确保ChromeDriver已安装并可用
    executable_path = {'executable_path': ChromeDriverManager().install()}
    # 初始化Chrome浏览器,可以设置headless=True在后台运行
    browser = Browser('chrome', **executable_path, headless=True)

    try:
        print(f"访问初始URL: {initial_url}")
        browser.visit(initial_url)
        time.sleep(3) # 等待页面加载和可能的重定向

        # 检查是否需要同意免责声明
        # 根据实际页面HTML结构,查找同意按钮的CSS选择器
        agree_button_selector = 'a#btnAgree' # 假设同意按钮的ID是btnAgree
        if browser.is_element_present_by_css(agree_button_selector, wait_time=5):
            print("发现免责声明页面,点击 '同意' 按钮...")
            browser.find_by_css(agree_button_selector).click()
            time.sleep(5) # 等待点击后页面跳转和加载

        # 至此,我们应该已经到达了目标数据所在的页面
        print(f"当前页面URL: {browser.url}")
        current_html = browser.html
        page_soup = soup(current_html, 'html.parser')

        # 尝试查找目标元素
        owner_elem = page_soup.find('td', class_='DataletData')
        if owner_elem:
            print("成功找到 'DataletData' 元素:")
            print(owner_elem.get_text(strip=True))
        else:
            print("未能找到 'DataletData' 元素。请检查目标页面结构或导航逻辑。")

        # 尝试查找所有 'datalet_div_2' 元素
        all_datalet_divs = page_soup.find_all('div', class_='datalet_div_2')
        if all_datalet_divs:
            print(f"找到 {len(all_datalet_divs)} 个 'datalet_div_2' 元素:")
            for i, div in enumerate(all_datalet_divs):
                print(f"  [{i+1}] {div.get_text(strip=True)[:100]}...") # 打印前100个字符
        else:
            print("未能找到 'datalet_div_2' 元素。")

    except Exception as e:
        print(f"发生错误: {e}")
    finally:
        print("关闭浏览器。")
        browser.quit()

# 调用函数进行抓取
initial_target_url = 'https://propertyinfo.knoxcountytn.gov/Datalets/Datalet.aspx?sIndex=1&idx=1'
scrape_property_info_with_splinter(initial_target_url)

4. 解决方案二:手动分析与requests库精细控制

如果网站不依赖复杂的JavaScript渲染,或者你希望追求更高的效率和更低的资源消耗,那么通过requests库配合BeautifulSoup进行抓取依然是可行的,但这需要更细致的网站行为分析。

听脑AI
听脑AI

听脑AI语音,一款专注于音视频内容的工作学习助手,为用户提供便捷的音视频内容记录、整理与分析功能。

下载

优势:

立即学习Python免费学习笔记(深入)”;

  • 速度快,资源消耗低。
  • 更灵活,可以精确控制每个HTTP请求。

劣势:

  • 需要手动处理重定向、Cookie和会话管理。
  • 不适用于重度依赖JavaScript渲染的网站。

实现步骤:

  1. 使用requests.Session():Session对象可以自动管理Cookie,确保在多个请求之间保持会话状态。
  2. 模拟同意免责声明:通过分析网络请求,找到点击“同意”按钮时实际发送的POST请求(如果有的话),或者识别服务器在同意后设置的特定Cookie。
  3. 携带必要的Cookie和Headers:在后续请求中,手动添加或更新Session对象的Cookie,以及模拟浏览器User-Agent等HTTP头信息。

示例代码:使用requests模拟会话与Cookie

import requests
from bs4 import BeautifulSoup

def scrape_property_info_with_requests(initial_url):
    """
    使用requests库模拟会话和Cookie,处理重定向和免责声明,然后抓取目标数据。
    此方法需要精确分析网站的网络请求和Cookie行为。
    """
    session = requests.Session()
    headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.124124 Safari/537.36',
        'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9',
        'Accept-Language': 'en-US,en;q=0.9',
    }

    try:
        print(f"第一步:访问初始URL并获取会话Cookie: {initial_url}")
        # 第一次请求,目的是获取ASP.NET_SessionId等初始Cookie,并触发重定向
        # allow_redirects=True 默认会跟随所有重定向
        response1 = session.get(initial_url, headers=headers, allow_redirects=True)
        print(f"第一次请求状态码: {response1.status_code}")
        print(f"第一次请求最终URL: {response1.url}")

        # 假设通过分析,我们知道在同意免责声明后,服务器会设置一个 'DISCLAIMER=1' 的Cookie
        # 并且最终目标页面是 'https://propertyinfo.knoxcountytn.gov/search/commonsearch.aspx?mode=realprop'
        # 我们需要手动将 DISCLAIMER=1 添加到session的cookie中
        session.cookies.set('DISCLAIMER', '1', domain='propertyinfo.knoxcountytn.gov')

        # 第二步:访问目标数据页面,此时session应携带了正确的Cookie
        # 注意:这里的 target_data_url 应该是经过免责声明后的实际数据页面URL
        # 在本例中,经过分析,最终的搜索页面是 commonsearch.aspx?mode=realprop
        target_data_url = 'https://propertyinfo.knoxcountytn.gov/search/commonsearch.aspx?mode=realprop'
        print(f"第二步:访问目标数据页面: {target_data_url}")
        response2 = session.get(target_data_url, headers=headers, allow_redirects=True)
        print(f"第二次请求状态码: {response2.status_code}")
        print(f"第二次请求最终URL: {response2.url}")

        if response2.status_code == 200:
            page_soup = BeautifulSoup(response2.text, 'html.parser')

            # 尝试查找目标元素
            owner_elem = page_soup.find('td', class_='DataletData')
            if owner_elem:
                print("成功找到 'DataletData' 元素:")
                print(owner_elem.get_text(strip=True))
            else:
                print("未能找到 'DataletData' 元素。请检查目标页面结构或Cookie/URL是否正确。")

            # 尝试查找所有 'datalet_div_2' 元素
            all_datalet_divs = page_soup.find_all('div', class_='datalet_div_2')
            if all_datalet_divs:
                print(f"找到 {len(all_datalet_divs)} 个 'datalet_div_2' 元素:")
                for i, div in enumerate(all_datalet_divs):
                    print(f"  [{i+1}] {div.get_text(strip=True)[:100]}...")
            else:
                print("未能找到 'datalet_div_2' 元素。")
        else:
            print(f"无法成功访问目标数据页面。状态码: {response2.status_code}")

    except requests.exceptions.RequestException as e:
        print(f"请求发生错误: {e}")
    except Exception as e:
        print(f"发生未知错误: {e}")

# 调用函数进行抓取
# 注意:此方法需要根据网站的实际行为进行精确调整,特别是Cookie和URL
# initial_target_url = 'https://propertyinfo.knoxcountytn.gov/Datalets/Datalet.aspx?sIndex=1&idx=1'
# scrape_property_info_with_requests(initial_target_url)
print("\n--- 请注意:requests 方法需要根据网站实际情况精确调整 Cookie 和 URL ---")
print("--- 建议先通过浏览器开发者工具充分分析网站行为 ---")

5. 注意事项与总结

  • 选择合适的工具:对于简单、静态的网站,requests + BeautifulSoup组合高效便捷;对于动态内容、复杂交互或反爬机制较强的网站,Splinter或Selenium等无头浏览器是更好的选择。
  • 充分分析网站:在开始编写爬虫之前,务必花时间通过浏览器开发者工具分析目标网站的请求流程、Cookie、重定向和JavaScript执行情况。这是解决大部分抓取问题的关键。
  • 处理反爬机制:网站可能会有各种反爬机制,如User-Agent检测、IP限制、验证码等。在实际项目中,可能需要引入代理IP、设置随机User-Agent、处理验证码等策略。
  • 遵守网站Robots协议和法律法规:在进行网页抓取时,请务必遵守目标网站的robots.txt协议,尊重网站的使用条款,并遵守当地的法律法规。

通过理解网页加载机制、选择合适的工具并进行细致的网站行为分析,我们可以有效地解决在网页抓取中遇到的各种复杂问题,成功获取所需数据。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

WorkBuddy
WorkBuddy

腾讯云推出的AI原生桌面智能体工作台

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
Python爬虫获取数据的方法
Python爬虫获取数据的方法

Python爬虫可以通过请求库发送HTTP请求、解析库解析HTML、正则表达式提取数据,或使用数据抓取框架来获取数据。更多关于Python爬虫相关知识。详情阅读本专题下面的文章。php中文网欢迎大家前来学习。

293

2023.11.13

cookie
cookie

Cookie 是一种在用户计算机上存储小型文本文件的技术,用于在用户与网站进行交互时收集和存储有关用户的信息。当用户访问一个网站时,网站会将一个包含特定信息的 Cookie 文件发送到用户的浏览器,浏览器会将该 Cookie 存储在用户的计算机上。之后,当用户再次访问该网站时,浏览器会向服务器发送 Cookie,服务器可以根据 Cookie 中的信息来识别用户、跟踪用户行为等。

6500

2023.06.30

document.cookie获取不到怎么解决
document.cookie获取不到怎么解决

document.cookie获取不到的解决办法:1、浏览器的隐私设置;2、Same-origin policy;3、HTTPOnly Cookie;4、JavaScript代码错误;5、Cookie不存在或过期等等。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

368

2023.11.23

阻止所有cookie什么意思
阻止所有cookie什么意思

阻止所有cookie意味着在浏览器中禁止接受和存储网站发送的cookie。阻止所有cookie可能会影响许多网站的使用体验,因为许多网站使用cookie来提供个性化服务、存储用户信息或跟踪用户行为。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

447

2024.02.23

cookie与session的区别
cookie与session的区别

本专题整合了cookie与session的区别和使用方法等相关内容,阅读专题下面的文章了解更详细的内容。

97

2025.08.19

session失效的原因
session失效的原因

session失效的原因有会话超时、会话数量限制、会话完整性检查、服务器重启、浏览器或设备问题等等。详细介绍:1、会话超时:服务器为Session设置了一个默认的超时时间,当用户在一段时间内没有与服务器交互时,Session将自动失效;2、会话数量限制:服务器为每个用户的Session数量设置了一个限制,当用户创建的Session数量超过这个限制时,最新的会覆盖最早的等等。

336

2023.10.17

session失效解决方法
session失效解决方法

session失效通常是由于 session 的生存时间过期或者服务器关闭导致的。其解决办法:1、延长session的生存时间;2、使用持久化存储;3、使用cookie;4、异步更新session;5、使用会话管理中间件。

776

2023.10.18

cookie与session的区别
cookie与session的区别

本专题整合了cookie与session的区别和使用方法等相关内容,阅读专题下面的文章了解更详细的内容。

97

2025.08.19

TypeScript类型系统进阶与大型前端项目实践
TypeScript类型系统进阶与大型前端项目实践

本专题围绕 TypeScript 在大型前端项目中的应用展开,深入讲解类型系统设计与工程化开发方法。内容包括泛型与高级类型、类型推断机制、声明文件编写、模块化结构设计以及代码规范管理。通过真实项目案例分析,帮助开发者构建类型安全、结构清晰、易维护的前端工程体系,提高团队协作效率与代码质量。

26

2026.03.13

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
Sass 教程
Sass 教程

共14课时 | 0.9万人学习

Bootstrap 5教程
Bootstrap 5教程

共46课时 | 3.6万人学习

CSS教程
CSS教程

共754课时 | 43.1万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号