Python-100-Days/Day66-75/09.Scrapy分布式实现.md

834 B
Raw Blame History

Scrapy爬虫框架分布式实现

分布式爬虫原理

Scrapy分布式实现

  1. 安装Scrapy-Redis。
  2. 配置Redis服务器。
  3. 修改配置文件。
    • SCHEDULER = 'scrapy_redis.scheduler.Scheduler'
    • DUPEFILTER_CLASS = 'scrapy_redis.dupefilter.RFPDupeFilter'
    • REDIS_HOST = '1.2.3.4'
    • REDIS_PORT = 6379
    • REDIS_PASSWORD = '1qaz2wsx'
    • SCHEDULER_QUEUE_CLASS = 'scrapy_redis.queue.FifoQueue'
    • SCHEDULER_PERSIST = True通过持久化支持接续爬取
    • SCHEDULER_FLUSH_ON_START = True每次启动时重新爬取

Scrapyd分布式部署

  1. 安装Scrapyd
  2. 修改配置文件
    • mkdir /etc/scrapyd
    • vim /etc/scrapyd/scrapyd.conf
  3. 安装Scrapyd-Client
    • 将项目打包成Egg文件。
    • 将打包的Egg文件通过addversion.json接口部署到Scrapyd上。