0

0

Scrapy中的链接提取器和去重工具分析

WBOY

WBOY

发布时间:2023-06-22 09:17:27

|

2070人浏览过

|

来源于php中文网

原创

scrapy是一个优秀的python爬虫框架,它支持并发、分布式、异步等高级特性,可以帮助开发者更快、更稳定地爬取互联网上的数据。在scrapy中,链接提取器和去重工具是非常重要的组件,用来辅助爬虫完成自动化的数据抓取和处理。本文将对scrapy中的链接提取器和去重工具进行分析,探究它们是如何实现的,以及在scrapy爬取过程中的应用。

一、链接提取器的作用及实现

链接提取器(Link Extractor)是Scrapy爬虫框架中的一个自动提取URL链接的工具。在一个完整的爬虫过程中,往往需要从网页中提取出一些URL链接,然后根据这些链接进一步进行访问和处理。链接提取器就是用来实现这个过程的,它可以根据一些规则从网页中自动提取出链接,并将这些链接保存到Scrapy的请求队列中等待后续处理。

在Scrapy中,链接提取器是通过正则表达式或XPath表达式来进行匹配的。Scrapy提供了两个链接提取器:基于正则表达式的LinkExtractor和基于XPath表达式的LxmlLinkExtractor。

  1. 基于正则表达式的LinkExtractor

基于正则表达式的LinkExtractor可以通过对网页中的URL进行正则匹配,自动提取出匹配成功的链接。例如,我们希望从一个网页中提取所有以 http://example.com/ 开头的链接,可以使用以下代码:

from scrapy.linkextractors import LinkExtractor

link_extractor = LinkExtractor(allow=r'^http://example.com/')
links = link_extractor.extract_links(response)

allow参数指定了一个正则表达式,用来匹配所有以 http://example.com/ 开头的链接。extract_links()方法可以提取出所有匹配成功的链接,保存在一个Link对象列表中。

Link对象是Scrapy框架中用来表示链接的数据结构,其中包含了链接的URL、标题、anchor文本和链接的类型等信息。通过这些对象,我们可以很方便地获取到需要的链接,并在Scrapy爬虫中进一步处理和访问。

  1. 基于XPath表达式的LxmlLinkExtractor

基于XPath表达式的LxmlLinkExtractor可以通过对网页中的HTML标签进行XPath表达式匹配,自动提取出匹配成功的链接。例如,我们希望从一个网页中提取所有class属性等于 "storylink" 的a链接,可以使用以下代码:

from scrapy.linkextractors import LxmlLinkExtractor

link_extractor = LxmlLinkExtractor(restrict_xpaths='//a[@class="storylink"]')
links = link_extractor.extract_links(response)

restrict_xpaths参数指定了一个XPath表达式,用来匹配所有class属性等于 "storylink" 的a标签。LxmlLinkExtractor的使用方式和LinkExtractor类似,可以将提取到的链接保存在一个Link对象列表中。需要注意的是,由于LxmlLinkExtractor使用了lxml库进行HTML解析,因此需要在项目的配置文件中添加以下代码:

# settings.py
DOWNLOAD_HANDLERS = {
    's3': None,
}

以上代码可以禁用Scrapy中默认的下载器,从而使用lxml库的HTML解析器。

二、去重工具的作用及实现

在进行Web爬取时,链接去重是非常重要的,因为在大多数情况下,同一个网页的不同链接是会重复出现的,如果不去重,就会造成重复爬取的问题,浪费带宽和时间。因此,在Scrapy中引入了去重工具(Duplicate Filter),用来对已经爬取过的链接进行标记和判断,避免重复访问。

去重工具的原理是通过将已经访问过的URL链接保存到一个数据结构中,然后对新的URL链接进行判断是否已经访问过,如果访问过,则将该URL链接丢弃,否则将其加入到爬虫的请求队列中。Scrapy中内置了很多种去重工具,包括基于内存的Set类去重器、基于磁盘的SQLite3去重器以及基于Redis的去重器等。不同的去重器有不同的适用场景,下面我们以Redis去重器为例进行说明。

Background Eraser
Background Eraser

AI自动删除图片背景

下载
  1. 基于Redis的去重器

Redis是一款高性能的NoSQL内存数据库,可以支持分布式、持久化、数据结构丰富等高级特性,非常适合用来实现Scrapy的去重工具。Scrapy中的Redis去重器可以通过对已经访问过的URL链接进行标记,避免重复访问。

Scrapy默认使用的是基于内存的Set类去重器,如果需要使用Redis去重器,可以在项目的配置文件中添加以下代码:

# settings.py
DUPEFILTER_CLASS = "scrapy_redis.dupefilter.RFPDupeFilter"
SCHEDULER = "scrapy_redis.scheduler.Scheduler"
SCHEDULER_PERSIST = True
REDIS_HOST = "localhost"
REDIS_PORT = 6379

其中,DUPEFILTER_CLASS参数指定了去重工具使用的去重策略,此处我们使用的是scrapy_redis.dupefilter.RFPDupeFilter,该去重器是基于Redis的set数据结构实现的。

SCHEDULER参数指定了调度器使用的调度策略,此处我们使用的是scrapy_redis.scheduler.Scheduler,该调度器是基于Redis的sorted set数据结构实现的。

SCHEDULER_PERSIST参数指定了调度器是否需要在Redis中持久化,即是否需要保存上一次爬取的状态,从而避免重新爬取已经爬取过的URL。

REDIS_HOST和REDIS_PORT参数分别指定了Redis数据库的IP地址和端口号,如果Redis数据库不在本地,则需要设置相应的IP地址。

使用Redis去重器之后,需要在爬虫中添加redis_key参数,用来指定Redis中保存URL链接的key名。例如:

# spider.py
class MySpider(scrapy.Spider):
    name = 'myspider'
    start_urls = ['http://example.com']

    custom_settings = {
        'REDIS_HOST': 'localhost',
        'REDIS_PORT': 6379,
        'DUPEFILTER_CLASS': 'scrapy_redis.dupefilter.RFPDupeFilter',
        'SCHEDULER': 'scrapy_redis.scheduler.Scheduler',
        'SCHEDULER_PERSIST': True,
        'SCHEDULER_QUEUE_CLASS': 'scrapy_redis.queue.SpiderPriorityQueue',
        'REDIS_URL': 'redis://user:pass@localhost:6379',
        'ITEM_PIPELINES': {
            'scrapy_redis.pipelines.RedisPipeline': 400,
        },
        'DOWNLOADER_MIDDLEWARES': {
            'scrapy.downloadermiddlewares.useragent.UserAgentMiddleware': None,
            'scrapy_useragents.downloadermiddlewares.useragents.UserAgentsMiddleware': 500,
        },
        'FEED_URI': 'result.json',
        'FEED_FORMAT': 'json',
        'LOG_LEVEL': 'INFO',
        'SPIDER_MIDDLEWARES': {
            'scrapy.spidermiddlewares.httperror.HttpErrorMiddleware': 300,
        }
    }

    def __init__(self, *args, **kwargs):
        domain = kwargs.pop('domain', '')
        self.allowed_domains = filter(None, domain.split(','))
        self.redis_key = '%s:start_urls' % self.name
        super(MySpider, self).__init__(*args, **kwargs)

    def parse(self, response):
        pass

以上是一个简单的爬虫示例,redis_key参数指定了在Redis中保存URL链接的键名为myspider:start_urls。在parse()方法中,需要编写自己的网页解析代码,提取出需要的信息。

三、总结

链接提取器和去重工具是Scrapy爬虫框架中非常重要的组件,它们可以大大简化我们编写爬虫的工作,并提高爬虫的效率。在使用Scrapy爬虫时,我们可以根据自己的需求选择不同的链接提取器和去重工具,从而实现更为高效和灵活的爬虫功能。

相关专题

更多
python开发工具
python开发工具

php中文网为大家提供各种python开发工具,好的开发工具,可帮助开发者攻克编程学习中的基础障碍,理解每一行源代码在程序执行时在计算机中的过程。php中文网还为大家带来python相关课程以及相关文章等内容,供大家免费下载使用。

772

2023.06.15

python打包成可执行文件
python打包成可执行文件

本专题为大家带来python打包成可执行文件相关的文章,大家可以免费的下载体验。

661

2023.07.20

python能做什么
python能做什么

python能做的有:可用于开发基于控制台的应用程序、多媒体部分开发、用于开发基于Web的应用程序、使用python处理数据、系统编程等等。本专题为大家提供python相关的各种文章、以及下载和课程。

764

2023.07.25

format在python中的用法
format在python中的用法

Python中的format是一种字符串格式化方法,用于将变量或值插入到字符串中的占位符位置。通过format方法,我们可以动态地构建字符串,使其包含不同值。php中文网给大家带来了相关的教程以及文章,欢迎大家前来阅读学习。

679

2023.07.31

python教程
python教程

Python已成为一门网红语言,即使是在非编程开发者当中,也掀起了一股学习的热潮。本专题为大家带来python教程的相关文章,大家可以免费体验学习。

1345

2023.08.03

python环境变量的配置
python环境变量的配置

Python是一种流行的编程语言,被广泛用于软件开发、数据分析和科学计算等领域。在安装Python之后,我们需要配置环境变量,以便在任何位置都能够访问Python的可执行文件。php中文网给大家带来了相关的教程以及文章,欢迎大家前来学习阅读。

549

2023.08.04

python eval
python eval

eval函数是Python中一个非常强大的函数,它可以将字符串作为Python代码进行执行,实现动态编程的效果。然而,由于其潜在的安全风险和性能问题,需要谨慎使用。php中文网给大家带来了相关的教程以及文章,欢迎大家前来学习阅读。

579

2023.08.04

scratch和python区别
scratch和python区别

scratch和python的区别:1、scratch是一种专为初学者设计的图形化编程语言,python是一种文本编程语言;2、scratch使用的是基于积木的编程语法,python采用更加传统的文本编程语法等等。本专题为大家提供scratch和python相关的文章、下载、课程内容,供大家免费下载体验。

730

2023.08.11

菜鸟裹裹入口以及教程汇总
菜鸟裹裹入口以及教程汇总

本专题整合了菜鸟裹裹入口地址及教程分享,阅读专题下面的文章了解更多详细内容。

0

2026.01.22

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
SciPy 教程
SciPy 教程

共10课时 | 1.2万人学习

Bootstrap 5教程
Bootstrap 5教程

共46课时 | 3万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2026 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号