Python动态网页抓取需Selenium与requests结合:Selenium处理JS渲染、登录验证等交互,requests高效调用API获取数据。关键在于用Selenium提取Cookie、Token等参数后交由requests批量请求,兼顾真实性与效率。

Python动态网页抓取不能只靠requests,因为很多页面内容由JavaScript异步加载,requests拿不到渲染后的HTML。这时候需要Selenium驱动浏览器模拟真实访问,再配合requests高效处理后续请求(如接口、图片、文件等),两者结合才能兼顾“可执行性”和“效率”。
启动浏览器(推荐Chrome + ChromeDriver),打开目标网址,等待关键元素出现后再提取页面源码。注意显式等待比time.sleep()更可靠。
from selenium import webdriver<br>
from selenium.webdriver.common.by import By<br>
from selenium.webdriver.support.ui import WebDriverWait<br>
from selenium.webdriver.support import expected_conditions as EC<br><br>
driver = webdriver.Chrome()<br>
driver.get("https://example.com")<br>
# 等待某个class为"content"的div加载完成<br>
WebDriverWait(driver, 10).until(EC.presence_of_element_located((By.CLASS_NAME, "content")))<br>
html = driver.page_source # 此时html含JS渲染后的内容<br>
driver.quit()有些动态页的数据来自XHR接口(比如列表分页、评论、商品详情)。与其让Selenium反复点击翻页,不如用它先登录/触发一次,再从Network面板或页面源码中分析出API地址、headers、cookies、token等,转而用requests批量调用——速度快、资源省、易调试。
driver.get_cookies()获取当前会话cookie,传给requests.Session()
driver.execute_script("return window.localStorage.getItem('token')")读取前端存储的认证信息典型场景如登录后爬商品列表:Selenium完成输入账号密码、点登录、过滑块验证;登录成功后,用requests直接调用商品API(带Cookie和Token),避免Selenium逐页跳转、解析DOM。
立即学习“Python免费学习笔记(深入)”;
driver.current_url确认跳转成功,再用driver.get_cookie("sessionid")提取关键凭证s = requests.Session()<br>
for cookie in driver.get_cookies():<br>
s.cookies.set(cookie['name'], cookie['value'])<br>
resp = s.get("https://api.example.com/items?page=2", headers={"User-Agent": "Mozilla/5.0..."})driver.execute_script("return generateSign(...)")),再传给requests两者结合不是简单拼接,要注意上下文一致性与反爬适配。
options.add_argument("--user-agent=Mozilla/5.0 (Windows NT 10.0; Win64; x64) ...")
options.add_argument("--blink-settings=imagesEnabled=false")
以上就是Python动态网页抓取方法_selenium与requests结合应用【指导】的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号