python分布式多爬虫系统如何构建

379次阅读
没有评论

python分布式多爬虫系统如何构建

生活中我们如果有东西过多放不下的时候,会需要进行增加货架,同时要考虑怎样增加才算合理。我们在用爬虫获取数据的时候也是如此,假如数据的基数比较大,普通的爬虫程序就无法负荷住了,此时我们需要找寻一个大的架构来支持我们的爬取。今天小编就跟大家谈一谈爬虫架构的思路。

在爬虫的开发过程中,有些业务场景需要同时抓取几百个甚至上千个网站,此时就需要一个支持多爬虫的框架。以下将通过解释两张图来说明架构的设计思想。如何安装git分布式版本控制系统

python分布式多爬虫系统如何构建

 

1、框架主要分成两部分:下载器Downloader和解析器Analyzer。Downloader负责抓取网页,Analyzer负责解析网页并入库。两者之间依靠消息队列MQ进行通信,两者可以分布在不同机器,也可分布在同一台机器。两者的数量也是灵活可变的,例如可能有五台机在做下载、两台机在做解析,这都是可以根据爬虫系统的状态及时调整的。

2、从上图可以看到MQ有两个管道:HTML/JS文件和待爬种子。Downloader从待爬种子里拿到一条种子,根据种子信息调用相应的抓取模块进行网页抓取,然后存入HTML/JS文件这个通道;Analyzer从HTML/JS文件里拿到一条网页内容,根据里面的信息调用相应的解析模块进行解析,将目标字段入库,需要的话还会解析出新的待爬种子加入MQ。

3、可以看到Downloader是包含User-Agent池、Proxy池、Cookie池的,可以适应复杂网站的抓取。

4、模块的调用使用工厂模式。

python分布式多爬虫系统如何构建

 

这张图是上一张图的另一种表述。

Htmls队列和Seed是队列可以独立分开,甚至数量也可以多开,之间没有联系。完全可以灵活地根据爬虫状态和硬件环境作调整。另外8G的内容可以让Redis作为Seeds队列存放5~8千万个种子。

分布式爬虫非常关键的一点:去重。可以看到多个解析器Analyzer共用一个去重队列,才能够保证数据的统一不重复。去重队列可以放在一台机上。基于Redis实现了Bloomfilter算法,理论上8G的内存可以满足30亿条URL的去重,如果允许漏失概率再大点的话能去重更多。

以上是python分布式多爬虫系统构建的一些思路,因为大多数小伙伴都是python的初学者,还暂时使用不到这个架构。如果有些小伙伴对这方面有所想法,可以进行深入的探究。

神龙|纯净稳定代理IP免费测试>>>>>>>>天启|企业级代理IP免费测试>>>>>>>>IPIPGO|全球住宅代理IP免费测试

相关文章:

版权声明:wuyou2021-05-21发表,共计959字。
新手QQ群:570568346,欢迎进群讨论 Python51学习