特牛网址导航

爬虫介绍: 分布式爬虫_request分布式-CSDN博客

网友收藏
文章浏览阅读265次。一 介绍原来scrapy的Scheduler维护的是本机的任务队列(存放Request对象及其回调函数等信息)+本机的去重队列(存放访问过的url地址)所以实现分布式爬取的关键就是,找一台专门的主机上运行一个共享的队列比如Redis,然后重写Scrapy的Scheduler,让新的Scheduler到共享队列存取Request,并且去除重复的Request请求,所以总结下来,实现分布..._request分布式
标签:request分布式