scrapy-redis分布式爬虫

468次阅读
没有评论

一、概述

scrapy-redis简介

scrapy-redis是scrapy框架基于redis数据库的组件,用于scrapy项目的分布式开发和部署。

有如下特征:

1. 分布式爬取

您可以启动多个spider工程,相互之间共享单个redis的requests队列。最适合广泛的多个域名网站的内容爬取。

2. 分布式数据处理

爬取到的scrapy的item数据可以推入到redis队列中,这意味着你可以根据需求启动尽可能多的处理程序来共享item的队列,进行item数据持久化处理

3. Scrapy即插即用组件

Scheduler调度器 + Duplication复制 过滤器,Item Pipeline,基本spider

 

scrapy-redis架构

scrapy-redis整体运行流程如下:

scrapy-redis分布式爬虫

1. 首先Slaver端从Master端拿任务(Request、url)进行数据抓取,Slaver抓取数据的同时,产生新任务的Request便提交给 Master 处理;

2. Master端只有一个Redis数据库,负责将未处理的Request去重和任务分配,将处理后的Request加入待爬队列,并且存储爬取的数据。

Scrapy-Redis默认使用的就是这种策略,我们实现起来很简单,因为任务调度等工作Scrapy-Redis都已经帮我们做好了,我们只需要继承RedisSpider、指定redis_key就行了。

缺点是,Scrapy-Redis调度的任务是Request对象,里面信息量比较大(不仅包含url,还有callback函数、headers等信息),

可能导致的结果就是会降低爬虫速度、而且会占用Redis大量的存储空间,所以如果要保证效率,那么就需要一定硬件水平。

 

scrapy-redis安装

通过pip安装即可:pip install scrapy-redis

一般需要python、redis、scrapy这三个安装包

官方文档:https://scrapy-redis.readthedocs.io/en/stable/

源码位置:https://github.com/rmax/scrapy-redis

参考博客:https://www.cnblogs.com/kylinlin/p/5198233.html

 

scrapy-redis常用配置

一般在配置文件中添加如下几个常用配置选项:

1(必须). 使用了scrapy_redis的去重组件,在redis数据库里做去重

 

DUPEFILTER_CLASS = <span class="hljs-string">"scrapy_redis.dupefilter.RFPDupeFilter"</span>

 

2(必须). 使用了scrapy_redis的调度器,在redis里分配请求

SCHEDULER = <span class="hljs-string">"scrapy_redis.scheduler.Scheduler"</span>

 

3(可选). 在redis中保持scrapy-redis用到的各个队列,从而允许暂停和暂停后恢复,也就是不清理redis queues

SCHEDULER_PERSIST = <span class="hljs-keyword">True</span>

 

4(必须). 通过配置RedisPipeline将item写入key为 spider.name : items 的redis的list中,供后面的分布式处理item 这个已经由 scrapy-redis 实现,不需要我们写代码,直接使用即可

ITEM_PIPELINES = {
   <span class="hljs-string">'scrapy_redis.pipelines.RedisPipeline'</span>: <span class="hljs-number">100</span> ,
}

 

5(必须). 指定redis数据库的连接参数

REDIS_HOST = <span class="hljs-string">'127.0.0.1'</span> 
REDIS_PORT = <span class="hljs-number">6379</span>

 

scrapy-redis键名介绍

scrapy-redis中都是用key-value形式存储数据,其中有几个常见的key-value形式:

1、 “项目名:items”  –>list 类型,保存爬虫获取到的数据item 内容是 json 字符串

2、 “项目名:dupefilter”   –>set类型,用于爬虫访问的URL去重 内容是 40个字符的 url 的hash字符串

3、 “项目名: start_urls”   –>List 类型,用于获取spider启动时爬取的第一个url

4、 “项目名:requests”   –>zset类型,用于scheduler调度处理 requests 内容是 request 对象的序列化 字符串

二、scrapy-redis简单实例

环境说明

操作系统:centos 7.6

ip地址:192.168.0.3

redis端口:6679

redis密码:abcd@1234

说明:Master端

 

操作系统:windows 10

ip地址:192.168.0.4

python版本:3.7.9

说明:slave端

 

代码实现

在原来非分布式爬虫的基础上,使用scrapy-redis简单搭建一个分布式爬虫,过程只需要修改一下spider的继承类和配置文件即可,很简单。

原非分布式爬虫项目,参见:https://www.cnblogs.com/xiao987334176/p/13656440.html

首先修改配置文件,在settings.py文件修改pipelines,增加scrapy_redis。注意:scrapy_redis的优先级要调高

ITEM_PIPELINES = {
    <span class="hljs-string">'ice_cream.pipelines.IceCreamPipeline'</span>: <span class="hljs-number">100</span>,
    <span class="hljs-string">'scrapy_redis.pipelines.RedisPipeline'</span>: <span class="hljs-number">400</span>,
}

 

最后一行添加如下内容:

DUPEFILTER_CLASS = <span class="hljs-string">"scrapy_redis.dupefilter.RFPDupeFilter"</span>
SCHEDULER = <span class="hljs-string">"scrapy_redis.scheduler.Scheduler"</span>
SCHEDULER_PERSIST = <span class="hljs-keyword">True</span>

REDIS_HOST = '192.168.0.3'
REDIS_PORT = 6679
REDIS_ENCODING = 'utf-8'
REDIS_PARAMS = {'password':'abcd@1234'}

 

注意:请根据实际情况,修改redis连接信息

 

修改spiders文件夹下的爬虫文件,我这里是jd.py

原文部分内容:

<span class="hljs-keyword">import</span> scrapy
<span class="hljs-keyword">from</span> scrapy_splash <span class="hljs-keyword">import</span> SplashRequest
<span class="hljs-keyword">from</span> ice_cream.items <span class="hljs-keyword">import</span> IceCreamItem

<span class="hljs-comment">#自定义lua脚本</span>
lua = <span class="hljs-string">'''
function main(splash)
    splash:go(splash.args.url)
    splash:wait(3)
    splash:runjs("document.getElementById('footer-2017').scrollIntoView(true)")
    splash:wait(3)
    return splash:html()
    end
'''</span>


<span class="hljs-class"><span class="hljs-keyword">class</span> <span class="hljs-title">JdSpider</span><span class="hljs-params">(scrapy.Spider)</span>:</span>
    name = <span class="hljs-string">'jd'</span>
    allowed_domains = [<span class="hljs-string">'search.jd.com'</span>]
    start_urls = [<span class="hljs-string">'https://search.jd.com/Search?keyword=%E5%86%B0%E6%B7%87%E6%B7%8B&enc=utf-8'</span>]
    base_url = <span class="hljs-string">'https://search.jd.com/Search?keyword=%E5%86%B0%E6%B7%87%E6%B7%8B&enc=utf-8'</span>
    <span class="hljs-comment"># 自定义配置,注意:变量名必须是custom_settings</span>
    custom_settings = {
        <span class="hljs-string">'REQUEST_HEADERS'</span>: {
            <span class="hljs-string">'User-Agent'</span>: <span class="hljs-string">'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.75 Safari/537.36'</span>,
        }
    }

修改为:

<span class="hljs-keyword">import</span> scrapy
<span class="hljs-keyword">from</span> scrapy_splash <span class="hljs-keyword">import</span> SplashRequest
<span class="hljs-keyword">from</span> ice_cream.items <span class="hljs-keyword">import</span> IceCreamItem
<span class="hljs-keyword">from</span> scrapy_redis.spiders <span class="hljs-keyword">import</span> RedisSpider

<span class="hljs-comment">#自定义lua脚本</span>
lua = <span class="hljs-string">'''
function main(splash)
    splash:go(splash.args.url)
    splash:wait(3)
    splash:runjs("document.getElementById('footer-2017').scrollIntoView(true)")
    splash:wait(3)
    return splash:html()
    end
'''</span>


<span class="hljs-class"><span class="hljs-keyword">class</span> <span class="hljs-title">JdSpider</span><span class="hljs-params">(RedisSpider)</span>:</span>
    name = <span class="hljs-string">'jd'</span>
    allowed_domains = [<span class="hljs-string">'search.jd.com'</span>]
    redis_key = <span class="hljs-string">"jd:start_urls"</span>
    <span class="hljs-comment"># start_urls = ['https://search.jd.com/Search?keyword=%E5%86%B0%E6%B7%87%E6%B7%8B&enc=utf-8']</span>
    base_url = <span class="hljs-string">'https://search.jd.com/Search?keyword=%E5%86%B0%E6%B7%87%E6%B7%8B&enc=utf-8'</span>
    <span class="hljs-comment"># 自定义配置,注意:变量名必须是custom_settings</span>
    custom_settings = {
        <span class="hljs-string">'REQUEST_HEADERS'</span>: {
            <span class="hljs-string">'User-Agent'</span>: <span class="hljs-string">'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.75 Safari/537.36'</span>,
        }
    }

注意:只修改了两个地方

一个是继承类:由scrapy.Spider修改为RedisSpider

然后start_url已经不需要了,修改为:redis_key = “xxxxx”,其中,这个键的值暂时是自己取的名字,

一般用项目名:start_urls来代替初始爬取的url。由于分布式scrapy-redis中每个请求都是从redis中取出来的,因此,在redis数据库中,设置一个redis_key的值,作为初始的url,scrapy就会自动在redis中取出redis_key的值,作为初始url,实现自动爬取。

 

启动程序

登windows10系统,先启动爬虫程序,执行命令:

scrapy runspider ice_cream/spiders/jd.py

注意:这里必须运行scrapy runspider命令,和之前不太一样。

 

最后登录centos 7.6系统,进入redis

redis-cli -p <span class="hljs-number">6679</span>

 

执行命令:

lpush jd:start_urls https://search.jd.com/Search?keyword=%E5%<span class="hljs-number">86</span>%B0%E6%B7%<span class="hljs-number">87</span>%E6%B7%<span class="hljs-number">8</span>B&enc=utf<span class="hljs-number">-8</span>

注意:jd:start_urls是在jd.py中定义的redis_key,https://search.jd.com/xxx,就是jd.py定义的start_urls,只不过被注释掉而已。

 

执行完上面的lpush命令之后,windows10的爬虫程序,就会开始工作。

如此一来,分布式已经搭建完毕。

 

本文只用了2台机器。如果资源足够,可以多增加几台slave机器,将slave机器的代码copy过去,并运行scrapy runspider命令即可。

master端,只需要执行lpush 命令。

 

本文参考链接:

https://www.cnblogs.com/pythoner6833/p/9148937.html

神龙|纯净稳定代理IP免费测试>>>>>>>>天启|企业级代理IP免费测试>>>>>>>>IPIPGO|全球住宅代理IP免费测试

相关文章:

版权声明:wuyou2022-12-26发表,共计5089字。
新手QQ群:570568346,欢迎进群讨论 Python51学习