python分布式爬虫中如何使用rpop方法

533次阅读
没有评论

python分布式爬虫中如何使用rpop方法

我们在上篇文章中以生产的角度分析了爬虫的消息队列,但就拿我们现实中的商品流通而言,有新的商品生产,就有新的商品在市面上流通,我们的爬虫也是如此。前期获取的数据存储在消息列表,然后爬虫需要把数据从消息列表中搬走,这就是站在了消费的角度。在这个过程中我们需要使用到rpop方法,接下来小编就带大家看看其在python分布式爬虫中的使用。

下面的代码是消费端爬虫程序的示例

import time
import redis
r = redis.Redis(host='127.0.0.1', port=6379,
                password='yourpassword', db=1)
# 爬虫程序
def crawl(task):
    print('爬取url {task}'.format(task=task))
    time.sleep(1)
while True:
    task = r.rpop('url_queue')
    if not task:
        time.sleep(1)
        continue
 
crawl(task)

爬虫程序要不停的使用rpop方法从redis的队列中拉取数据进行爬取,考虑到生产者随时都可能写入新的任务,因此,必须使用死循环,得不到消息时,sleep一段时间,继续获取消息。

关于部署

生产端的程序,消费端的程序可以随意部署,但不管如何,都要确保这些机器与redis所在的机器是网络连通的,因为他们一个要写消息到redis,一个要从redis拉取任务,至于生产端和消费端是否网络连通则没有任何必要,甚至同一端的worker之间也不必网络连通

数据存储

消费端的worker在爬取数据以后,可以根据实际需要决定是否直接落库,如果需要对数据进行规范化处理或是其他操作,则可以写入新的消息队列中,由下一个工序的worker拉取数据进行处理

有了类似消息列表的这个盒子,爬虫需要获取的数据就可以暂时放在其中和搬运出来,这也就是整个分布式爬虫获取数据的过程。

神龙|纯净稳定代理IP免费测试>>>>>>>>天启|企业级代理IP免费测试>>>>>>>>IPIPGO|全球住宅代理IP免费测试

相关文章:

版权声明:wuyou2021-05-22发表,共计839字。
新手QQ群:570568346,欢迎进群讨论 Python51学习