scrapy爬虫加载API,配置自定义加载模块

简介: 当我们在scrapy中写了几个爬虫程序之后,他们是怎么被检索出来的,又是怎么被加载的?这就涉及到爬虫加载的API,今天我们就来分享爬虫加载过程及其自定义加载程序。SpiderLoader API 该API是爬虫实例化API,主要实现一个类SpiderLoaderclass scrapy.loader.SpiderLoader该类负责检索和处理项目中定义的spider类。

当我们在scrapy中写了几个爬虫程序之后,他们是怎么被检索出来的,又是怎么被加载的?这就涉及到爬虫加载的API,今天我们就来分享爬虫加载过程及其自定义加载程序。


SpiderLoader API 


该API是爬虫实例化API,主要实现一个类SpiderLoader


class scrapy.loader.SpiderLoader


该类负责检索和处理项目中定义的spider类。

可以通过在SPIDER_LOADER_CLASS项目设置中指定其路径来使用自定义爬虫装载程序,但是自定义加载程序必须完全实现scrapy.interfaces.ISpiderLoader接口以保证无错执行。

该类具备下列方法

from_settings(settings

Scrapy使用此类方法来创建类的实例。使用当前项目配置,加载在SPIDER_MODULES 设置模块中递归发现的爬虫,在一般是创建项目时候生成的setting文件中类似['demo1.spiders']

参数: settings(Settings实例) - 项目配置文件

 @classmethod
    def from_settings(cls, settings):
        return cls(settings)


load(spider_name )

获取具有给定名称的Spider类。它将查看以前加载的名为spider_name的爬虫类的爬虫,如果找不到则会引发KeyError。

参数: spider_name(str) - 爬虫类名

    def load(self, spider_name):
        """
        Return the Spider class for the given spider name. If the spider
        name is not found, raise a KeyError.
        """

        try:
            return self._spiders[spider_name]
        except KeyError:
            raise KeyError("Spider not found: {}".format(spider_name))


list()

    获取项目中可用蜘蛛的名称。

def list(self):
"""
Return a list with the names of all spiders available in the project.
"""
return list(self._spiders.keys())


find_by_request(request

列出可以处理给定请求的爬虫名称。将尝试将请求的URL与爬虫的域匹配。

参数: request(Requestinstance) - 查询请求

 def find_by_request(self, request):
        """
        Return the list of spider names that can handle the given request.
        """

        return [name for name, cls in self._spiders.items()
                if cls.handles_request(request)]


完整源码:

  • # -*- coding: utf-8 -*-
    from __future__ import absolute_import
    from collections import defaultdict
    import traceback
    import warnings

    from zope.interface import implementer

    from scrapy.interfaces import ISpiderLoader
    from scrapy.utils.misc import walk_modules
    from scrapy.utils.spider import iter_spider_classes


    @implementer(ISpiderLoader)
    class SpiderLoader(object):
        """
        SpiderLoader is a class which locates and loads spiders
        in a Scrapy project.
        """

        def __init__(self, settings):
            self.spider_modules = settings.getlist('SPIDER_MODULES')
            self.warn_only = settings.getbool('SPIDER_LOADER_WARN_ONLY')
            self._spiders = {}
            self._found = defaultdict(list)
            self._load_all_spiders()

        def _check_name_duplicates(self):
            dupes = ["\n".join("  {cls} named {name!r} (in {module})".format(
                                    module=mod, cls=cls, name=name)
                               for (mod, cls) in locations)
                     for name, locations in self._found.items()
                     if len(locations)>1]
            if dupes:
                msg = ("There are several spiders with the same name:\n\n"
                       "{}\n\n  This can cause unexpected behavior.".format(
                            "\n\n".join(dupes)))
                warnings.warn(msg, UserWarning)

        def _load_spiders(self, module):
            for spcls in iter_spider_classes(module):
                self._found[spcls.name].append((module.__name__, spcls.__name__))
                self._spiders[spcls.name] = spcls

        def _load_all_spiders(self):
            for name in self.spider_modules:
                try:
                    for module in walk_modules(name):
                        self._load_spiders(module)
                except ImportError as e:
                    if self.warn_only:
                        msg = ("\n{tb}Could not load spiders from module '{modname}'. "
                               "See above traceback for details.".format(
                                    modname=name, tb=traceback.format_exc()))
                        warnings.warn(msg, RuntimeWarning)
                    else:
                        raise
            self._check_name_duplicates()

        @classmethod
        def from_settings(cls, settings):
            return cls(settings)

        def load(self, spider_name):
            """
            Return the Spider class for the given spider name. If the spider
            name is not found, raise a KeyError.
            """

            try:
                return self._spiders[spider_name]
            except KeyError:
                raise KeyError("Spider not found: {}".format(spider_name))

        def find_by_request(self, request):
            """
            Return the list of spider names that can handle the given request.
            """

            return [name for name, cls in self._spiders.items()
                    if cls.handles_request(request)]

        def list(self):
            """
            Return a list with the names of all spiders available in the project.
            """

            return list(self._spiders.keys())


  • 配置自定义加载类

在setting文件中配置SPIDER_LOADER_CLASS 

默认: 'scrapy.spiderloader.SpiderLoader'将用于加载蜘蛛的类,必须实现 SpiderLoader API。

该API的作用是搜寻项目中定义的多个爬虫程序,并提供相关的操作方法,包括加载、查询指定爬虫、判断请求对应的爬虫等功能,一般情况下不需要自己写加载程序,而是内部实现。


2019-03-25-22_48_53.png


相关文章
|
3月前
|
数据采集 存储 数据处理
Scrapy:Python网络爬虫框架的利器
在当今信息时代,网络数据已成为企业和个人获取信息的重要途径。而Python网络爬虫框架Scrapy则成为了网络爬虫工程师的必备工具。本文将介绍Scrapy的概念与实践,以及其在数据采集和处理过程中的应用。
23 1
|
4月前
|
数据采集 调度 Python
Scrapy爬虫中合理使用time.sleep和Request
Scrapy爬虫中合理使用time.sleep和Request
|
27天前
|
数据采集 Web App开发 搜索推荐
项目配置之道:优化Scrapy参数提升爬虫效率
项目配置之道:优化Scrapy参数提升爬虫效率
|
2月前
|
数据采集 负载均衡 应用服务中间件
Python爬虫之Splash负载均衡配置#7
Splash负载均衡配置【2月更文挑战第28天】
33 0
|
3月前
|
数据采集 存储 调度
Scrapy:解锁网络爬虫新境界
在当今信息爆炸的时代,获取并处理大量网络数据是互联网行业中至关重要的一环。Python网络爬虫框架Scrapy作为一款高效、灵活的工具,为开发者提供了强大的能力来抓取、解析和存储各类网页信息。本文将介绍Scrapy的概念、主要特点以及实践经验,帮助读者掌握这一工具,并在实际项目中应用。
|
3月前
|
数据采集 存储 机器人
Scrapy网络爬虫框架——从入门到实践
网络爬虫已经成为了信息获取的必备工具之一,而Scrapy作为Python中最流行的网络爬虫框架之一,具有高效、可扩展、易用等特点。本文将深入介绍Scrapy框架的概念和实践,帮助读者快速掌握构建高质量网络爬虫的方法。
50 0
|
3月前
|
数据采集 存储 调度
Scrapy:从入门到实践的网络爬虫框架
Scrapy是一款强大的Python网络爬虫框架,可以帮助开发者更高效地抓取互联网上的数据。本文将介绍Scrapy的概念和基本原理,详细讲解如何使用Scrapy框架实现一个简单的网络爬虫,并分享一些实战经验和技巧。
|
3月前
|
数据采集 存储 调度
Scrapy:高效的Python网络爬虫框架
在信息时代,数据的获取和分析已经成为了一项重要的技能。而网络爬虫则是实现数据采集的一种常用手段。Scrapy作为一个高效、灵活的Python网络爬虫框架,其具备强大的扩展性、高度的可配置性以及良好的兼容性。本文将从Scrapy的概念入手,介绍其基本原理、使用方法以及实际应用案例。
|
7月前
|
数据采集 JSON 前端开发
Python爬虫进阶:使用Scrapy库进行数据提取和处理
在我们的初级教程中,我们介绍了如何使用Scrapy创建和运行一个简单的爬虫。在这篇文章中,我们将深入了解Scrapy的强大功能,学习如何使用Scrapy提取和处理数据。
|
4月前
|
数据采集 监控 中间件
解决HTTP 429错误的Scrapy中间件配置
解决HTTP 429错误的Scrapy中间件配置