由于受到计算机能力和网络带宽的限制,单台计算机运行的爬虫咋爬取数据量较大时,需要耗费很长时间。分布式爬取的思想是“人多力量大”,在网络中的多台计算机同时运行程序,公童完成一个大型爬取任务,

  Scrapy 本身并不是一个为分布式爬取而设计的框架,但第三方库 scrapy-redis 为基扩展了分布式爬取的功能,两者结合便是一个分布式爬虫框架。在分布式怕花丛中。需要使用某种通信机制协调各个爬虫的工作,让每一份爬虫明确自己的任务,其中包括:

  (1)当前的爬去任务,即下载 + 提取数据(分配任务)

  (2)当前爬去任务是否已经被其他爬虫执行过(任务去重)

  (3)如何存储爬去到的数据(数据存储)

scrapy-redis 利用 Redis 数据库作为多个爬虫数据共享实现以上功能,

1、redis 的使用

  首先来学习一下 redis 数据库的使用, Redis 是一个速度非常快的费关系型数据库,使用内存为主存储,内存中的数据也可以被持久化到硬盘。Redis 以键值形式(key-value)存储数据,其中的值以分为一下 5 中类型:

  (1) 字符串(string)

  (2)哈希 (hash)

  (3)列表(list)

  (4)集合(set)

  (5)有序集合(zset)

  

2、安装 redis

  接下来安装 Redis, 在 Ubuntu 下可以 使用 apt-get 安装:

  

sudo apt-get installredis-server

  Redis 数据库进程是一个网络服务器,可以使用一下命令开始、重启、停止 Redis:

sudo service redis-server start  # 开启Redis
sudo serv\ice redis-server restart # 重启 Redis
sudo service redis-server stop # 停止 Redis

默认情况下,Redis 会在 127.0.0.1:6379 上开启服务,可以是用 netstat 命令进行查询:

netsat -ntl

3、Redis 基本命令

  由于篇幅有限,这里仅介绍一些 Redis 基本使用命令,按照值的 5 种类型依次讲解

  (1)字符串

    Redis 的字符串(String)可以存储字符串、整数、浮点数(数字也是字符串)。String命令描述如表:

String 命令         设置字符串key的值    
SET key value 设置字符串 key 的值
GRT key 获取字符串 key 的值
DEL key 删除 key

  (2) 列表

    Redis 的列表(List)可以有序的存储多个字符串。List 命令以及描述如图:

List 命令                  描             述
LPUSH key value1 [value2 ... ]           在列表 key 左端插入一个或多值         
RPUSH key value1 [value2 ... ] 在列表 key 右端插入一个或多个值

LPOP key

从列表左侧弹出一个值
Rpop key  从列表右侧弹出一个值
LINDEX key index 获取列表 key 中 index 位置的值

LRANGE key start end

获取列表中 key 中位置【start, end】范围的值

LIEN key 获取列表中 key 的长度

  (3)哈希

    Redis 的哈希(Hash) 可以存储多个键值对,其中的键和值都是字符串,Hash 命令及描述:

Hash 命令            描   述
Hsah key field   value  将哈希 key 的fisld 字段赋值为 value

HDEL key field [field...]

删除哈希 key 的一个或多个字段
HGET key field  获取哈希 key 的 field 字段的值
HGETALL key  获取哈希 key 的所有字段值

  (4)集合

    Redis 集合(Set)可以存储多个唯一的字符串。Set命令及描述如图:

Set 命令           描     述    
SADD key member1 [member2 ...]      向集合 key 中添加一个或多个成员    
SREM key member1 [member2 ...] 删除集合 key 中所有成员

SMEMBERS key

获取集合 key 中所有成员

SCRD key 获取集合 key 中成员数量
SISMEMBER key member  判断 member是否是集合 key 的成员 

  (5)有序集合

    Redis 中有序集合(ZSet)与集合(Set)类似,可以存储多个唯一的字符串,但在有序集合中,每个成员都有一个分数,所有成员按给定分数在集合中有序排列。

ZSet 命令

 描    述             
ZADD key score1 member1 [score2 member2 ... ] 向有序集合 key 中添加一个或多个成员           
ZREM member [member2... ] 删除有序集合 key 中一个或多个成员
ZRANGE key start stop 获取有序集合 key 中位置在 [start, stop] 范围的所有成员    
ZRANGEBYSCORE key min max

获取有序集合 key 中分值在[start, stop ]范围的所有成员

Scrapy 分布式爬取的更多相关文章

  1. 爬虫07 /scrapy图片爬取、中间件、selenium在scrapy中的应用、CrawlSpider、分布式、增量式

    爬虫07 /scrapy图片爬取.中间件.selenium在scrapy中的应用.CrawlSpider.分布式.增量式 目录 爬虫07 /scrapy图片爬取.中间件.selenium在scrapy ...

  2. scrapy-redis实现爬虫分布式爬取分析与实现

    本文链接:http://blog.csdn.net/u012150179/article/details/38091411 一 scrapy-redis实现分布式爬取分析 所谓的scrapy-redi ...

  3. scrapy关键字爬取百度图库(一)

    刚入门学习python的菜鸟,如有错误,还望指教 爬取百度图库需要知道百度图库的加载方式是通过下拉加载的,所以我们需要分析Ajax请求来爬取每一页的数据信息 表述不清直接上图片 图片一是刷新页面后加载 ...

  4. scrapy-redis + Bloom Filter分布式爬取tencent社招信息

    scrapy-redis + Bloom Filter分布式爬取tencent社招信息 什么是scrapy-redis 什么是 Bloom Filter 为什么需要使用scrapy-redis + B ...

  5. scrapy-redis分布式爬取tencent社招信息

    scrapy-redis分布式爬取tencent社招信息 什么是scrapy-redis 目标任务 安装爬虫 创建爬虫 编写 items.py 编写 spiders/tencent.py 编写 pip ...

  6. scrapy分布式抓取基本设置

    scrapy本身并不是一个为分布式爬取而设计的框架,但第三方库scrapy-redis为其扩展了分布式抓取的功能,在分布式爬虫框架中,需要使用某种通信机制协调各个爬虫工作 (1)当前的爬取任务,下载+ ...

  7. 简单的scrapy实战:爬取腾讯招聘北京地区的相关招聘信息

    简单的scrapy实战:爬取腾讯招聘北京地区的相关招聘信息 简单的scrapy实战:爬取腾讯招聘北京地区的相关招聘信息 系统环境:Fedora22(昨天已安装scrapy环境) 爬取的开始URL:ht ...

  8. 使用scrapy框架爬取自己的博文(2)

    之前写了一篇用scrapy框架爬取自己博文的博客,后来发现对于中文的处理一直有问题- - 显示的时候 [u'python\u4e0b\u722c\u67d0\u4e2a\u7f51\u9875\u76 ...

  9. 如何提高scrapy的爬取效率

    提高scrapy的爬取效率 增加并发: 默认scrapy开启的并发线程为32个,可以适当进行增加.在settings配置文件中修改CONCURRENT_REQUESTS = 100值为100,并发设置 ...

随机推荐

  1. Flask的基本使用

    最基本的一个Flask模板,实现本地9898端口访问,页面返回hello world from flask import Flask app = Flask(__name__) @app.route( ...

  2. 【笔记】Linux进程间同步和进程绑定至特定cpu

    #define _GNU_SOURCE #include <stdio.h> #include <sys/types.h> #include <sys/stat.h> ...

  3. BK-信息查找、摘取

    先了解下压缩文件中的内容: 实现功能: 1.根据"e1.xlsx"表中的dealerName.bu(可能没有).时间,匹配"待挖取信息表.xlsx"中对应的相关 ...

  4. 安装Tengine版本的nginx

    安装tengine版nginx #!/bin/bash yum install epel-release -y yum install gcc unzip gcc-c++ git wget bind- ...

  5. Vue学习心得----新手如何学习Vue(转载)

    ps:本文并非原著,转载自:https://www.cnblogs.com/buzhiqianduan/p/7620102.html,请悉知 前言 使用vue框架有一段时间了,这里总结一下心得,主要为 ...

  6. 基于jmeter+ant实现的接口自动化测试

    jmeter+ANT接口自动化测试框架 项目说明 本框架是一套基于jmeter+Ant+Excel+Python而设计的数据驱动接口自动化测试框架,jmeter 作为执行器,Ant 作为构建工具,进行 ...

  7. Centos6.10-FastDFS-Tracker-Nginx示例配置

    nginx 安装过程<详见> 1.进入工作目录 cd /usr/local/nginx/conf 2.创建子目录 mkdir configs 3.创建storage代理配置 cd conf ...

  8. webpack初学踩坑记

    注意事项: 1. webpack不用装在全局环境下,在哪个项目中使用,就安装在该项目下即可 1. 问题一:npm init 初始化一个项目后,添加webpack.config.js文件,在该项目中通过 ...

  9. opencv:图像的算术操作

    前提:输入图像的大小和类型必须一致 越界处理: 大于255,则会减去255 小于0,则等于0 基本计算,加减乘除 #include <opencv2/opencv.hpp> #includ ...

  10. TensorFlow:谷歌图像识别网络inception-v3下载与查看结构

    学习博客: # https://www.cnblogs.com/felixwang2/p/9190731.html # https://www.cnblogs.com/felixwang2/p/919 ...