0

0

使用Python爬取动态加载的CSV数据:TfL自行车数据案例

聖光之護

聖光之護

发布时间:2025-08-15 17:38:12

|

619人浏览过

|

来源于php中文网

原创

使用python爬取动态加载的csv数据:tfl自行车数据案例

本教程旨在解决使用Python爬虫抓取动态加载的CSV数据时遇到的问题。我们将以伦敦交通局(TfL)自行车使用数据为例,演示如何通过分析XHR/API请求,找到包含数据链接的XML文件,并使用BeautifulSoup解析XML,最终提取所需的CSV文件URL。本文将提供详细的代码示例和步骤,帮助读者掌握爬取动态加载数据的通用方法。

网络爬虫在面对静态网页时通常表现良好,但当网页内容通过JavaScript动态加载时,传统的爬取方法可能无法获取完整的数据。本教程将介绍如何应对这种情况,以伦敦交通局(TfL)的自行车使用数据为例,演示如何抓取动态加载的CSV文件链接。

1. 问题分析:动态加载与传统爬取的局限性

当使用requests和BeautifulSoup等库直接请求包含动态内容的网页时,服务器返回的HTML可能不包含完整的数据。这是因为数据是通过JavaScript在客户端加载的,而requests只获取服务器返回的初始HTML。例如,直接爬取TfL自行车数据页面时,只能获取到条款和条件链接,而无法获取到实际的CSV文件链接。

2. 解决方案:分析XHR/API请求

解决动态加载问题的关键在于找到加载数据的API接口。现代浏览器提供了开发者工具,可以用来检查网络请求(包括XHR/API请求)。

立即学习Python免费学习笔记(深入)”;

步骤:

  1. 打开目标网页(例如:https://www.php.cn/link/64ad8f3af92ef8d9a1c7dfd7265e577d)。
  2. 打开浏览器的开发者工具(通常按F12键)。
  3. 切换到“Network”选项卡。
  4. 刷新页面。
  5. 在“Network”选项卡中,筛选XHR或Fetch/XHR请求。
  6. 寻找与数据相关的请求。通常,请求的响应类型为JSON或XML。

通过分析TfL自行车数据页面,可以发现一个名为https://s3-eu-west-1.amazonaws.com/cycling.data.tfl.gov.uk/?list-type=2&max-keys=1500的请求,其响应是一个包含CSV文件链接的XML文件。

3. 代码实现:提取CSV文件链接

找到包含数据链接的XML文件后,可以使用requests获取XML内容,并使用BeautifulSoup解析XML,提取所需的CSV文件链接。

PathFinder
PathFinder

AI驱动的销售漏斗分析工具

下载
import requests
from bs4 import BeautifulSoup

# 获取XML内容
url = 'https://s3-eu-west-1.amazonaws.com/cycling.data.tfl.gov.uk/?list-type=2&max-keys=1500'
response = requests.get(url)
response.raise_for_status()  # 检查请求是否成功

# 使用BeautifulSoup解析XML
soup = BeautifulSoup(response.text, 'xml')

# 提取CSV文件链接
for content in soup.find_all('Contents'):
    key = content.find('Key').text
    if key.startswith('usage-stats') and key.endswith('.csv'):
        csv_url = 'https://www.php.cn/link/64ad8f3af92ef8d9a1c7dfd7265e577d' + key
        print(csv_url)

代码解释:

  1. requests.get(url):向XML文件的URL发送GET请求,获取XML内容。
  2. response.raise_for_status():检查HTTP响应状态码,如果请求失败(状态码不是200),则抛出异常。
  3. BeautifulSoup(response.text, 'xml'):使用BeautifulSoup解析XML内容。注意,需要指定解析器为xml。
  4. soup.find_all('Contents'):查找所有名为Contents的XML标签。
  5. content.find('Key').text:在每个Contents标签中,查找名为Key的标签,并获取其文本内容。Key标签包含了CSV文件的路径。
  6. if key.startswith('usage-stats') and key.endswith('.csv'):过滤出以usage-stats开头,以.csv结尾的路径,这些路径是所需的CSV文件。
  7. csv_url = 'https://www.php.cn/link/64ad8f3af92ef8d9a1c7dfd7265e577d' + key:构建完整的CSV文件URL。
  8. print(csv_url):打印CSV文件URL。

4. 扩展应用:处理大量数据

上面的代码可以提取所有CSV文件链接。如果只需要特定时间段的数据(例如,2021年到2023年),可以在代码中添加额外的过滤条件。

import requests
from bs4 import BeautifulSoup

# 获取XML内容
url = 'https://s3-eu-west-1.amazonaws.com/cycling.data.tfl.gov.uk/?list-type=2&max-keys=1500'
response = requests.get(url)
response.raise_for_status()  # 检查请求是否成功

# 使用BeautifulSoup解析XML
soup = BeautifulSoup(response.text, 'xml')

# 提取CSV文件链接
for content in soup.find_all('Contents'):
    key = content.find('Key').text
    if key.startswith('usage-stats') and key.endswith('.csv'):
        # 增加时间段过滤条件
        if '2021' in key or '2022' in key or '2023' in key:
            csv_url = 'https://www.php.cn/link/64ad8f3af92ef8d9a1c7dfd7265e577d' + key
            print(csv_url)

注意:

  • 时间段的判断可能需要根据实际的文件命名规则进行调整。
  • 可以根据需要将提取的URL保存到文件中,或者直接使用pandas等库读取CSV数据。

5. 总结与注意事项

本教程介绍了如何使用Python爬取动态加载的CSV数据。关键步骤包括:

  1. 使用浏览器开发者工具分析XHR/API请求。
  2. 找到包含数据链接的API接口。
  3. 使用requests获取API响应。
  4. 使用BeautifulSoup或其他合适的库解析API响应,提取所需的数据。

注意事项:

  • 在进行网络爬虫时,请务必遵守网站的robots.txt协议,并尊重网站的服务条款。
  • 频繁的请求可能会给服务器带来负担,请合理设置请求频率,避免对网站造成不必要的影响。
  • 不同的网站可能使用不同的动态加载技术,需要根据实际情况进行分析和调整。

通过本教程的学习,读者应该能够掌握爬取动态加载数据的基本方法,并能够应用于其他类似场景。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

WorkBuddy
WorkBuddy

腾讯云推出的AI原生桌面智能体工作台

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
json数据格式
json数据格式

JSON是一种轻量级的数据交换格式。本专题为大家带来json数据格式相关文章,帮助大家解决问题。

457

2023.08.07

json是什么
json是什么

JSON是一种轻量级的数据交换格式,具有简洁、易读、跨平台和语言的特点,JSON数据是通过键值对的方式进行组织,其中键是字符串,值可以是字符串、数值、布尔值、数组、对象或者null,在Web开发、数据交换和配置文件等方面得到广泛应用。本专题为大家提供json相关的文章、下载、课程内容,供大家免费下载体验。

547

2023.08.23

jquery怎么操作json
jquery怎么操作json

操作的方法有:1、“$.parseJSON(jsonString)”2、“$.getJSON(url, data, success)”;3、“$.each(obj, callback)”;4、“$.ajax()”。更多jquery怎么操作json的详细内容,可以访问本专题下面的文章。

337

2023.10.13

go语言处理json数据方法
go语言处理json数据方法

本专题整合了go语言中处理json数据方法,阅读专题下面的文章了解更多详细内容。

82

2025.09.10

Python爬虫获取数据的方法
Python爬虫获取数据的方法

Python爬虫可以通过请求库发送HTTP请求、解析库解析HTML、正则表达式提取数据,或使用数据抓取框架来获取数据。更多关于Python爬虫相关知识。详情阅读本专题下面的文章。php中文网欢迎大家前来学习。

293

2023.11.13

Python 时间序列分析与预测
Python 时间序列分析与预测

本专题专注讲解 Python 在时间序列数据处理与预测建模中的实战技巧,涵盖时间索引处理、周期性与趋势分解、平稳性检测、ARIMA/SARIMA 模型构建、预测误差评估,以及基于实际业务场景的时间序列项目实操,帮助学习者掌握从数据预处理到模型预测的完整时序分析能力。

80

2025.12.04

Python 数据清洗与预处理实战
Python 数据清洗与预处理实战

本专题系统讲解 Python 在数据清洗与预处理中的核心技术,包括使用 Pandas 进行缺失值处理、异常值检测、数据格式化、特征工程与数据转换,结合 NumPy 高效处理大规模数据。通过实战案例,帮助学习者掌握 如何处理混乱、不完整数据,为后续数据分析与机器学习模型训练打下坚实基础。

32

2026.01.31

python中print函数的用法
python中print函数的用法

python中print函数的语法是“print(value1, value2, ..., sep=' ', end=' ', file=sys.stdout, flush=False)”。本专题为大家提供print相关的文章、下载、课程内容,供大家免费下载体验。

193

2023.09.27

Python异步编程与Asyncio高并发应用实践
Python异步编程与Asyncio高并发应用实践

本专题围绕 Python 异步编程模型展开,深入讲解 Asyncio 框架的核心原理与应用实践。内容包括事件循环机制、协程任务调度、异步 IO 处理以及并发任务管理策略。通过构建高并发网络请求与异步数据处理案例,帮助开发者掌握 Python 在高并发场景中的高效开发方法,并提升系统资源利用率与整体运行性能。

37

2026.03.12

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
最新Python教程 从入门到精通
最新Python教程 从入门到精通

共4课时 | 22.5万人学习

Django 教程
Django 教程

共28课时 | 5万人学习

SciPy 教程
SciPy 教程

共10课时 | 1.9万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号