0

0

Python爬虫:使用Requests和Re模块递归提取网站所有链接

聖光之護

聖光之護

发布时间:2025-11-02 14:21:00

|

922人浏览过

|

来源于php中文网

原创

python爬虫:使用requests和re模块递归提取网站所有链接

本文介绍了如何使用Python的requests和re模块,编写一个网络爬虫来递归地提取网站上的所有链接。通过示例代码,详细讲解了爬虫的实现思路、关键步骤和注意事项,并提供了优化后的代码示例,避免无限循环,提高爬取效率。

网络爬虫是一种自动浏览网页并提取信息的程序。在Python中,requests库常用于发送HTTP请求获取网页内容,re模块则用于使用正则表达式从文本中提取所需信息。本文将介绍如何结合这两个库,编写一个递归爬虫,提取指定网站的所有链接。

爬虫实现思路

  1. 发送HTTP请求: 使用requests.get()方法向目标URL发送GET请求,获取网页的HTML内容。
  2. 提取链接: 使用re.findall()方法,通过正则表达式匹配HTML内容中的href属性,提取所有链接。
  3. 处理链接: 将提取到的相对链接转换为绝对链接,并去除锚点(#后面的部分)。
  4. 递归爬取: 对提取到的每个链接,递归调用爬取函数,继续提取链接。
  5. 避免无限循环: 使用集合记录已访问过的链接,避免重复爬取,防止无限循环。
  6. 限制爬取深度: 设置最大爬取深度,防止爬虫爬取过多的页面。

关键代码解析

以下是优化后的代码示例,并附带详细注释:

import requests
import re
from urllib.parse import urljoin, urlparse

def extract_links_from(url):
    """
    从指定URL的网页中提取所有链接。

    Args:
        url: 要提取链接的URL。

    Returns:
        包含所有链接的列表。如果请求失败,返回空列表。
    """
    try:
        response = requests.get(url)
        response.raise_for_status()  # 检查HTTP状态码,如果不是200,则抛出异常
    except requests.exceptions.RequestException as e:
        print(f"Error fetching {url}: {e}")
        return []

    content = str(response.content)
    links = re.findall(r'(?:href=")(.*?)"', content, re.MULTILINE)
    return links

def crawl(url, domain, visited=set(), max_depth=5):
    """
    递归地爬取指定网站的所有链接。

    Args:
        url: 要开始爬取的URL。
        domain: 目标网站的域名。
        visited: 已经访问过的URL集合,用于避免无限循环。
        max_depth: 最大爬取深度。

    Returns:
        包含所有爬取到的链接的列表。
    """
    if max_depth == 0 or url in visited:
        return []

    visited.add(url)
    href_links = extract_links_from(url)
    links_list = []

    for link in href_links:
        link = urljoin(url, link.split("#")[0])  # 将相对链接转换为绝对链接,并去除锚点
        parsed_link = urlparse(link)
        if parsed_link.netloc == domain and link not in visited:
            links_list.append(link)
            links_list.extend(crawl(link, domain, visited, max_depth - 1))  # 递归调用crawl函数
    return links_list

# 示例用法
target_url = "https://www.free-power-point-templates.com/"
parsed_url = urlparse(target_url)
domain = parsed_url.netloc

result = crawl(target_url, domain)
print(result)

代码解释:

阿里云AI平台
阿里云AI平台

阿里云AI平台

下载

立即学习Python免费学习笔记(深入)”;

  • extract_links_from(url)函数:
    • 使用requests.get(url)发送GET请求,获取网页内容。
    • 使用response.raise_for_status()检查HTTP状态码,确保请求成功。如果请求失败,会抛出异常,防止程序崩溃。
    • 使用re.findall(r'(?:href=")(.*?)"', content, re.MULTILINE)通过正则表达式提取href属性中的链接。正则表达式r'(?:href=")(.*?)"'用于匹配href="和"之间的内容,(?:...)表示非捕获分组,(.*?)表示匹配任意字符,直到遇到下一个"。
  • crawl(url, domain, visited=set(), max_depth=5)函数:
    • 使用if max_depth == 0 or url in visited:作为递归终止条件,避免无限循环和超出最大深度。
    • 使用visited.add(url)将当前URL添加到已访问集合中。
    • 使用urljoin(url, link.split("#")[0])将提取到的相对链接转换为绝对链接,并去除锚点。
    • 使用urlparse(link).netloc == domain判断链接是否属于目标域名。
    • 使用links_list.extend(crawl(link, domain, visited, max_depth - 1))递归调用crawl函数,爬取新的链接。

注意事项

  • 遵守Robots协议: 在爬取网站之前,应该先查看网站的robots.txt文件,了解网站的爬取规则,避免爬取禁止访问的页面。
  • 设置User-Agent: 在发送HTTP请求时,应该设置User-Agent,模拟浏览器行为,避免被网站识别为爬虫。
  • 控制爬取频率: 爬取速度过快可能会给网站服务器带来压力,甚至导致IP被封禁。应该控制爬取频率,设置合理的延迟时间。
  • 异常处理: 在爬取过程中,可能会遇到各种异常,例如网络连接错误、页面不存在等。应该使用try-except语句捕获这些异常,并进行相应的处理。
  • 数据存储: 将爬取到的数据存储到文件或数据库中,方便后续分析和使用。
  • 避免无限循环: 这是最重要的一点,一定要使用visited集合记录已访问的链接,并设置最大爬取深度,防止爬虫陷入无限循环。

总结

本文介绍了使用Python的requests和re模块编写递归爬虫的方法。通过示例代码,详细讲解了爬虫的实现思路、关键步骤和注意事项。在实际应用中,需要根据具体情况进行调整和优化,例如添加代理IP、使用多线程/多进程提高爬取效率等。记住,编写爬虫时一定要遵守网站的规则,尊重网站的权益。

热门AI工具

更多
DeepSeek
DeepSeek

幻方量化公司旗下的开源大模型平台

豆包大模型
豆包大模型

字节跳动自主研发的一系列大型语言模型

WorkBuddy
WorkBuddy

腾讯云推出的AI原生桌面智能体工作台

腾讯元宝
腾讯元宝

腾讯混元平台推出的AI助手

文心一言
文心一言

文心一言是百度开发的AI聊天机器人,通过对话可以生成各种形式的内容。

讯飞写作
讯飞写作

基于讯飞星火大模型的AI写作工具,可以快速生成新闻稿件、品宣文案、工作总结、心得体会等各种文文稿

即梦AI
即梦AI

一站式AI创作平台,免费AI图片和视频生成。

ChatGPT
ChatGPT

最最强大的AI聊天机器人程序,ChatGPT不单是聊天机器人,还能进行撰写邮件、视频脚本、文案、翻译、代码等任务。

相关专题

更多
js正则表达式
js正则表达式

php中文网为大家提供各种js正则表达式语法大全以及各种js正则表达式使用的方法,还有更多js正则表达式的相关文章、相关下载、相关课程,供大家免费下载体验。

531

2023.06.20

正则表达式不包含
正则表达式不包含

正则表达式,又称规则表达式,,是一种文本模式,包括普通字符和特殊字符,是计算机科学的一个概念。正则表达式使用单个字符串来描述、匹配一系列匹配某个句法规则的字符串,通常被用来检索、替换那些符合某个模式的文本。php中文网给大家带来了有关正则表达式的相关教程以及文章,希望对大家能有所帮助。

258

2023.07.05

java正则表达式语法
java正则表达式语法

java正则表达式语法是一种模式匹配工具,它非常有用,可以在处理文本和字符串时快速地查找、替换、验证和提取特定的模式和数据。本专题提供java正则表达式语法的相关文章、下载和专题,供大家免费下载体验。

766

2023.07.05

java正则表达式匹配字符串
java正则表达式匹配字符串

在Java中,我们可以使用正则表达式来匹配字符串。本专题为大家带来java正则表达式匹配字符串的相关内容,帮助大家解决问题。

219

2023.08.11

正则表达式空格
正则表达式空格

正则表达式空格可以用“s”来表示,它是一个特殊的元字符,用于匹配任意空白字符,包括空格、制表符、换行符等。本专题为大家提供正则表达式相关的文章、下载、课程内容,供大家免费下载体验。

357

2023.08.31

Python爬虫获取数据的方法
Python爬虫获取数据的方法

Python爬虫可以通过请求库发送HTTP请求、解析库解析HTML、正则表达式提取数据,或使用数据抓取框架来获取数据。更多关于Python爬虫相关知识。详情阅读本专题下面的文章。php中文网欢迎大家前来学习。

293

2023.11.13

正则表达式空格如何表示
正则表达式空格如何表示

正则表达式空格可以用“s”来表示,它是一个特殊的元字符,用于匹配任意空白字符,包括空格、制表符、换行符等。想了解更多正则表达式空格怎么表示的内容,可以访问下面的文章。

245

2023.11.17

正则表达式中如何匹配数字
正则表达式中如何匹配数字

正则表达式中可以通过匹配单个数字、匹配多个数字、匹配固定长度的数字、匹配整数和小数、匹配负数和匹配科学计数法表示的数字的方法匹配数字。更多关于正则表达式的相关知识详情请看本专题下面的文章。php中文网欢迎大家前来学习。

547

2023.12.06

TypeScript类型系统进阶与大型前端项目实践
TypeScript类型系统进阶与大型前端项目实践

本专题围绕 TypeScript 在大型前端项目中的应用展开,深入讲解类型系统设计与工程化开发方法。内容包括泛型与高级类型、类型推断机制、声明文件编写、模块化结构设计以及代码规范管理。通过真实项目案例分析,帮助开发者构建类型安全、结构清晰、易维护的前端工程体系,提高团队协作效率与代码质量。

26

2026.03.13

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
最新Python教程 从入门到精通
最新Python教程 从入门到精通

共4课时 | 22.5万人学习

Django 教程
Django 教程

共28课时 | 5万人学习

SciPy 教程
SciPy 教程

共10课时 | 1.9万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号