0

0

Python怎样制作自动化爬虫?playwright采集

絕刀狂花

絕刀狂花

发布时间:2025-08-16 13:59:01

|

1126人浏览过

|

来源于php中文网

原创

python结合playwright制作自动化爬虫的核心是模拟真实用户行为,通过控制真实浏览器实例(如chromium、firefox、webkit)来采集依赖javascript动态加载的网页内容;2. 基本步骤包括安装playwright(pip install playwright)并安装浏览器驱动(playwright install);3. 编写脚本启动浏览器(可选择headless或有头模式),创建页面,导航至目标url,使用page.wait_for_selector或page.wait_for_load_state等待动态内容加载;4. 执行交互操作如点击、输入、滚动等,通过page.locator或page.evaluate提取数据;5. 完成后关闭浏览器实例释放资源;6. playwright相比传统爬虫库(如requests+beautifulsoup)的优势在于能执行javascript、处理异步请求和用户交互,适用于现代动态网站;7. 处理动态内容的方法包括等待元素出现、监听网络请求(如page.wait_for_response)、等待网络空闲状态或执行javascript获取数据;8. 常见陷阱包括元素定位不稳定,应优先使用稳定属性(如id、data-test-id)或组合选择器;9. 面对反爬机制,可通过设置user-agent、使用代理ip、模拟人类行为(随机延迟、鼠标移动)、禁用headless模式等方式应对;10. 资源消耗高时需及时关闭页面和浏览器,合理使用浏览器上下文并控制并发数量;11. 调试可通过page.pause()、截屏、录屏和监听console日志等方式进行,提升问题排查效率。该方案完整实现了动态网页的自动化采集,具备高适应性和稳定性,适合复杂现代网页的爬取需求。

Python怎样制作自动化爬虫?playwright采集

Python结合Playwright制作自动化爬虫,其核心在于模拟真实用户在浏览器中的行为,从而高效采集那些依赖JavaScript动态加载或异步请求的现代网页内容。这不像传统爬虫那样仅限于解析静态HTML,Playwright能够直接控制真实的浏览器实例,无论是Chrome、Firefox还是WebKit,让数据采集变得更接近“所见即所得”。

要用Python和Playwright制作自动化爬虫,首先你需要安装它:

pip install playwright
。接着,还需要安装对应的浏览器驱动:
playwright install

解决方案

立即学习Python免费学习笔记(深入)”;

制作Playwright自动化爬虫,本质上是编写脚本来指挥浏览器完成一系列操作。这包括启动浏览器、打开指定网页、等待页面元素加载、点击按钮、填写表单、滚动页面,甚至截屏或获取网络请求的响应。

一个基本的流程是:

  1. 启动浏览器实例:选择无头模式(headless)或有头模式(visible)。无头模式适合后台运行,有头模式方便调试。
  2. 创建新页面:在浏览器中打开一个新的标签页。
  3. 导航到目标URL:使用
    page.goto()
    方法访问网页。
  4. 等待元素加载:这是关键,因为很多内容是异步加载的。你可以用
    page.wait_for_selector()
    等待特定元素出现,或者
    page.wait_for_load_state()
    等待网络空闲或DOM加载完成。
  5. 交互操作
    • 点击
      page.click('selector')
    • 输入文本
      page.fill('selector', 'your text')
    • 选择下拉框
      page.select_option('selector', 'value')
    • 滚动
      page.evaluate('window.scrollTo(0, document.body.scrollHeight)')
  6. 提取数据:使用
    page.locator('selector').all_text_contents()
    page.evaluate()
    结合JavaScript来获取页面上的文本、属性等。
  7. 关闭浏览器:完成任务后,关闭浏览器实例。

举个例子,如果我想抓取一个动态加载商品列表的网站:

import asyncio
from playwright.async_api import async_playwright

async def scrape_dynamic_page(url):
    async with async_playwright() as p:
        browser = await p.chromium.launch(headless=True) # 可以改为headless=False查看过程
        page = await browser.new_page()
        await page.goto(url)

        # 等待商品列表加载完成,这里假设商品项的CSS选择器是'.product-item'
        # 实际项目中可能需要更复杂的等待策略,比如等待某个数据请求完成
        await page.wait_for_selector('.product-item', state='visible', timeout=10000)

        # 滚动到底部,触发更多商品加载(如果网站有无限滚动)
        # for _ in range(3): # 滚动3次
        #     await page.evaluate("window.scrollTo(0, document.body.scrollHeight)")
        #     await page.wait_for_timeout(2000) # 等待新内容加载

        # 提取所有商品标题
        product_titles = await page.locator('.product-item .product-title').all_text_contents()
        print("抓取到的商品标题:")
        for title in product_titles:
            print(title.strip())

        await browser.close()

# 假设要爬取的URL
# asyncio.run(scrape_dynamic_page("https://example.com/dynamic-products"))

这段代码展示了Playwright如何模拟用户行为,等待页面动态内容加载,然后提取数据。实际应用中,错误处理、数据存储、代理IP管理等都是需要考虑的。

Playwright相比传统爬虫库(如Requests+BeautifulSoup)有何优势?

这是一个我经常被问到的问题,也是我个人在选择爬虫工具时会深思熟虑的关键点。传统爬虫,比如基于

requests
库获取HTML,再用
BeautifulSoup
lxml
解析,它们最大的优势在于轻量、快速、资源消耗低。但它们有个致命的短板:无法执行JavaScript。这意味着,如果一个网站的内容是JavaScript动态渲染的,或者需要用户交互(比如点击“加载更多”按钮、登录、填写表单)才能显示,那么
requests+BeautifulSoup
就无能为力了,它们看到的永远只是一个“骨架”HTML。

而Playwright则完全不同。它操控的是一个真正的浏览器实例,就像你手动打开Chrome上网一样。它能执行页面上的所有JavaScript代码,处理AJAX请求、WebSocket连接,甚至能模拟鼠标移动和键盘输入。所以,对于那些现代的、重前端交互的网站,Playwright简直是降维打击。它能轻易地获取到传统爬虫无法触及的数据,比如通过API异步加载的评论、商品详情等。虽然它会消耗更多的计算资源和时间(毕竟要启动一个完整的浏览器),但在面对复杂的动态网站时,这种投入是完全值得的。它大大降低了处理JavaScript渲染内容的复杂性,让你能更专注于数据本身,而不是如何“骗过”前端框架。

如何利用Playwright处理JavaScript动态加载的内容和异步请求?

处理JavaScript动态加载的内容和异步请求是Playwright的拿手好戏。这正是它区别于传统HTTP请求库的关键所在。当一个页面通过JavaScript从后端API获取数据并渲染到DOM上时,我们不能像以前那样简单地等待HTML文档加载完成。Playwright提供了多种策略来应对这种场景:

Vimi
Vimi

Vimi是商汤科技发布的全球首个可控人物的AI视频生成大模型

下载

一种常见的方法是等待特定的DOM元素出现。如果我知道某个数据会在一个特定的

div
span
中显示,我可以用
page.wait_for_selector('div.data-container', state='visible')
state='visible'
确保元素不仅存在于DOM中,而且是可见的。这种方法简单直观,但前提是你清楚目标元素的CSS选择器。

更高级一点,你可以监听网络请求。很多动态内容是通过XHR或Fetch API请求获取的。Playwright允许你拦截或等待这些请求。例如,你可以使用

page.wait_for_response(url_or_predicate)
来等待一个特定的API响应。如果我知道某个商品列表的数据是从
/api/products
这个接口来的,我就可以这样写:
response = await page.wait_for_response(lambda response: "/api/products" in response.url)
。获取到响应后,甚至可以解析其JSON内容来直接获取数据,这比从DOM中解析更加稳定高效。

还有一种“粗暴但有效”的方法是等待网络空闲

await page.wait_for_load_state('networkidle')
会等待页面在一段时间内没有新的网络请求发出,这通常意味着所有动态内容都已经加载完毕。不过,这种方法有时不够精确,如果页面有持续的心跳请求,可能会导致无限等待。

最后,如果你对JavaScript足够熟悉,可以直接在浏览器环境中执行JS代码来获取数据。

await page.evaluate('document.querySelector(".some-element").textContent')
可以直接执行一段JS并返回结果。这在某些情况下非常灵活,比如当你想执行一些复杂的DOM操作或调用页面上已有的JS函数时。这些方法给了我们极大的灵活性去应对各种复杂的动态加载场景,使得Playwright在处理现代网页时显得游刃有余。

Playwright爬虫开发中常见的陷阱与应对策略有哪些?

在用Playwright开发爬虫时,确实会遇到一些让人头疼的问题,这就像在迷雾中摸索,需要一些经验和技巧来规避。

一个常见的陷阱是元素定位的不稳定性。网站前端代码经常更新,导致你辛辛苦苦写好的CSS选择器或XPath突然失效。我个人的经验是,尽量选择那些结构化、不那么容易变化的元素属性来定位,比如

id
data-test-id
这类唯一标识符,而不是依赖于复杂的类名或层级关系。如果实在没有稳定的ID,可以考虑组合定位,比如
div.parent-class > a[aria-label="某个描述"]
,增加定位的鲁棒性。

反爬机制是另一个大挑战。网站可能会检测你是否是自动化工具,比如通过检测浏览器指纹、鼠标轨迹、IP访问频率等。Playwright虽然模拟了真实浏览器,但默认配置下依然可能被识别。应对策略包括:

  • 设置User-Agent:模拟常见浏览器,如Chrome的User-Agent。
  • 使用代理IP:避免单个IP访问频率过高被封禁。
  • 模拟真实用户行为:不仅仅是点击和输入,可以加入随机的等待时间
    page.wait_for_timeout()
    ,模拟鼠标随机移动
    page.mouse.move()
    ,或者随机滚动页面,让行为看起来更像人类。
  • 绕过验证码:如果遇到验证码,可能需要集成第三方验证码识别服务。
  • 禁用Headless模式:有时网站会检测Headless浏览器,切换到有头模式(
    headless=False
    )可能有效,但这会消耗更多资源。

内存和资源消耗也是一个不容忽视的问题。Playwright启动的是真实浏览器,每个浏览器实例都会占用大量内存。如果你要爬取大量页面,或者需要长时间运行,内存泄露和资源耗尽是常见问题。我的做法是:

  • 合理关闭浏览器实例和页面:每次完成一个页面或一组任务后,及时
    await page.close()
    await browser.close()
    释放资源。
  • 使用浏览器上下文(BrowserContext):对于需要隔离Session(如登录状态)的场景,使用
    browser.new_context()
    创建独立的上下文,完成后也要关闭。
  • 并发控制:不要一次性启动过多的浏览器实例,通过
    asyncio.Semaphore
    等工具控制并发数量。

最后,调试困难也是一个痛点。当爬虫不按预期工作时,你可能需要查看浏览器内部发生了什么。Playwright提供了强大的调试工具:

  • page.pause()
    :在代码中插入
    await page.pause()
    ,脚本会暂停,并打开Playwright Inspector,你可以手动操作页面,查看元素,甚至一步步执行代码。
  • 截屏和录像:在关键步骤
    await page.screenshot()
    browser = await p.chromium.launch(record_video_dir="videos/")
    ,可以帮助你直观地看到问题出在哪里。
  • 打印日志:结合
    console.log
    事件监听,可以捕获页面内部的JavaScript日志。

这些陷阱和应对策略,很多都是我在实际项目中踩过坑后总结出来的,它们能帮助你更稳健地构建Playwright爬虫。

相关专题

更多
python开发工具
python开发工具

php中文网为大家提供各种python开发工具,好的开发工具,可帮助开发者攻克编程学习中的基础障碍,理解每一行源代码在程序执行时在计算机中的过程。php中文网还为大家带来python相关课程以及相关文章等内容,供大家免费下载使用。

750

2023.06.15

python打包成可执行文件
python打包成可执行文件

本专题为大家带来python打包成可执行文件相关的文章,大家可以免费的下载体验。

635

2023.07.20

python能做什么
python能做什么

python能做的有:可用于开发基于控制台的应用程序、多媒体部分开发、用于开发基于Web的应用程序、使用python处理数据、系统编程等等。本专题为大家提供python相关的各种文章、以及下载和课程。

758

2023.07.25

format在python中的用法
format在python中的用法

Python中的format是一种字符串格式化方法,用于将变量或值插入到字符串中的占位符位置。通过format方法,我们可以动态地构建字符串,使其包含不同值。php中文网给大家带来了相关的教程以及文章,欢迎大家前来阅读学习。

618

2023.07.31

python教程
python教程

Python已成为一门网红语言,即使是在非编程开发者当中,也掀起了一股学习的热潮。本专题为大家带来python教程的相关文章,大家可以免费体验学习。

1262

2023.08.03

python环境变量的配置
python环境变量的配置

Python是一种流行的编程语言,被广泛用于软件开发、数据分析和科学计算等领域。在安装Python之后,我们需要配置环境变量,以便在任何位置都能够访问Python的可执行文件。php中文网给大家带来了相关的教程以及文章,欢迎大家前来学习阅读。

547

2023.08.04

python eval
python eval

eval函数是Python中一个非常强大的函数,它可以将字符串作为Python代码进行执行,实现动态编程的效果。然而,由于其潜在的安全风险和性能问题,需要谨慎使用。php中文网给大家带来了相关的教程以及文章,欢迎大家前来学习阅读。

577

2023.08.04

scratch和python区别
scratch和python区别

scratch和python的区别:1、scratch是一种专为初学者设计的图形化编程语言,python是一种文本编程语言;2、scratch使用的是基于积木的编程语法,python采用更加传统的文本编程语法等等。本专题为大家提供scratch和python相关的文章、下载、课程内容,供大家免费下载体验。

706

2023.08.11

Java 桌面应用开发(JavaFX 实战)
Java 桌面应用开发(JavaFX 实战)

本专题系统讲解 Java 在桌面应用开发领域的实战应用,重点围绕 JavaFX 框架,涵盖界面布局、控件使用、事件处理、FXML、样式美化(CSS)、多线程与UI响应优化,以及桌面应用的打包与发布。通过完整示例项目,帮助学习者掌握 使用 Java 构建现代化、跨平台桌面应用程序的核心能力。

0

2026.01.14

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
最新Python教程 从入门到精通
最新Python教程 从入门到精通

共4课时 | 0.6万人学习

Django 教程
Django 教程

共28课时 | 3.1万人学习

SciPy 教程
SciPy 教程

共10课时 | 1.1万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号