十行代码开启scarpy多网站爬虫时代

438次阅读
没有评论
十行代码开启scarpy多网站爬虫时代

不就是同时启动多个爬虫程序吗?

文章里这么多大神搞这么复杂干嘛?

简单事情复杂化干嘛?

第一步:设置好多个爬虫程序

这是第一个test_1.py文件

import scrapy

class XiachufangSpider(scrapy.Spider): name = 'test_1' start_urls = ['http://www.qingnian8.com/']

def parse(self, response, **kwargs): url = response.xpath('/html/body/div[2]/div[3]/div[1]/div[1]/div[2]/ul/li[2]/a//text()').extract() print(url)

 这是第二个test_2.py文件

import scrapy

class XiachufangSpider(scrapy.Spider): name = 'test_2' start_urls = ['http://www.qingnian8.com/']

def parse(self, response, **kwargs): url = response.xpath('/html/body/div[2]/div[3]/div[1]/div[1]/div[2]/ul/li[12]/a//text()').extract() print(url)

然后再main.py启动文件中输入以下代码,这么简单,就自己看吧

from scrapy.crawler import CrawlerProcess from scrapy.utils.project import get_project_settings

# 在Scrapy框架内控制爬虫 if __name__ == "__main__": process = CrawlerProcess(get_project_settings())

process.crawl("zhihu")

process.crawl("test_1")

print('—–爬虫启动—–') process.start() process.start()

就这么简单就能启动多个爬虫程序了,不知道为什么这么多大神非要搞这么复杂。。查了我半天资料,原来就十行代码的事情

神龙|纯净稳定代理IP免费测试>>>>>>>>天启|企业级代理IP免费测试>>>>>>>>IPIPGO|全球住宅代理IP免费测试

相关文章:

版权声明:Python教程2022-10-25发表,共计991字。
新手QQ群:570568346,欢迎进群讨论 Python51学习