Scrapy之"并行"爬虫

395次阅读
没有评论
Scrapy之"并行"爬虫

问题反馈

在使用中有任何问题,可以反馈给我,以下联系方式跟我交流

  • Author: Leo
  • Wechat: Leo-sunhailin
  • E-mail: 379978424@qq.com

  • 开发环境

    • Win10 x64
    • Python 3.4.4
    • Scrapy 1.4.0(目前最新版本,截至2017-11-29)

题目

  • 题目或许应该叫: Multiple Spiders in the same process.
  • 官方文档的解释就是: 默认情况下Scrapy支持一个爬虫在多线程的情况下进行爬取,但是实际上也支持多个爬虫运行在每一个线程上.(官方也补充了一个internal API,实际上就是Crawl(爬虫)的核心启动接口)
  • 有空的我可以写写Scrapy的技巧,如果遇到的话哈哈~有前提的.

  • 示例

    • 网上其实有很多参照官网给的例子跑的commands代码,但是多少都一些问题,你不信可以跑一下,很多都是能跑成功但是有报错。但是就是看着不舒服,所幸自己看着源码和官方示例写了一个。
    • 其实讲回上面这点,官方也是很奇葩的,给了怎么并发爬虫,不告诉别人怎么运行,直接只是一个scrapy crawl不带参数的,实际上这样写不规范,但是那样也能跑,就是会有报错提示。这时候就要引出自定义命令了。
    • 正确的写法和不会报错的写法请往下看~
    • 创建一个Scrapy的项目. 对!就是一个普通项目,并没有什么特别的模板.

    # 创建一个Scrapy项目 scrapy startproject multiple_spiders复制代码

    • 生成的文件结构是这样的:

    • multiple_spiders

      • multiple_spiders
        • commands (一开始没有的,创建完项目后自行创建)
          • <双下划线>init<双下划线>.py
          • crawlall.py
        • spiders (核心代码)
          • <双下划线>init<双下划线>.py
          • multiple.py
        • <双下划线>init<双下划线>.py
        • items.py
        • middlewares.py
        • pipelines.py
        • settings.py
      • scrapy.cfg
    • spiders/multiple.py的代码:

    # -*- coding: UTF-8 -*- """ Created on 2017年11月8日 @author: Leo """

    import scrapy

    # 测试代码,功能是把网址的源代码保存到txt中 class MySpider1(scrapy.Spider): name = "spider-1" start_urls = ["<爬取的地址1>"]

    def parse(self, response): filename = "./multiple_spiders/test-1.txt" with open(filename, 'wb') as f: f.write(response.body)

    # 测试代码,功能是把网址的源代码保存到txt中 class MySpider2(scrapy.Spider): name = "spider-2" start_urls = ["<爬取的地址2>n"]

    def parse(self, response): filename = "./multiple_spiders/test-2.txt" with open(filename, 'wb') as f: f.write(response.body)复制代码

    • 创建commands文件夹,以及文件夹下的init.py文件
      (init.py里面不用写东西)

    • 创建crawlall.py<名字可以自定义>

    # -*- coding: utf-8 -*- """ Created on 2017年11月8日 @author: Leo """

    from scrapy.commands import ScrapyCommand from scrapy.utils.project import get_project_settings from scrapy.crawler import CrawlerProcess

    from multiple_spiders.spiders.multiple import MySpider1, MySpider2

    class Command(ScrapyCommand): requires_project = True

    def syntax(self): return '[options]'

    def short_desc(self): return 'Runs all of the spiders'

    def add_options(self, parser): ScrapyCommand.add_options(self, parser)

    def process_options(self, args, opts): ScrapyCommand.process_options(self, args, opts)

    def run(self, args, opts): settings = get_project_settings() one = MySpider1() two = MySpider2() process = CrawlerProcess(settings) process.crawl(one) process.crawl(two) process.start()复制代码

    • settings.py中加一入一个代码:

    COMMANDS_MODULE = 'multiple_spiders.commands'复制代码

    • 最后就可以运行了

    scrapy crawlall<名字和你commands文件夹的下的py文件名字对应即可>复制代码

    • 至于不想同时启动两个爬虫,或者同时启动三个,或者有三个爬虫同时启动其中2个,过一段时间关闭其中一个再开启另外一个的这类需求。。动动脑子就好了。

    • 最终还是去参考一下官方文档,毕竟Scrapy的文档还是比较丰富的。但有能力的可以直接去看源码,去研究启动的方式,比看文档容易理解一点。

    • 具体要看哪些模块我大致提一下(CrawlProcess, CrawlerRunner, Command)
    神龙|纯净稳定代理IP免费测试>>>>>>>>天启|企业级代理IP免费测试>>>>>>>>IPIPGO|全球住宅代理IP免费测试

    相关文章:

    版权声明:Python教程2022-10-25发表,共计2454字。
    新手QQ群:570568346,欢迎进群讨论 Python51学习