这是我的公众号获取原创保护的首篇文章,原创的肯定将支持我继续前行。现在写这篇文章的时间是晚上11:30,写完就回寝室休息了,希望更多的朋友与我一起同行(当然需要一个善良的妹子的救济)。(我的新书《Python爬虫开发与项目实战》出版了,大家可以看一下样章

好了,废话不多说,咱们进入今天的主题。上一篇咱们讲解了代理ip上篇,本篇咱们继续讲解代理ip。这一篇是上一篇的扩展和优化,主要的改动是使用scrapy来进行爬取代理ip,同时演示在scrapy框架中怎么使用mongodb数据库,最后使用多线程批量验证代理ip的合理性,大大加快了速度。

  这次我选择的依然是http://www.xicidaili.com/nn/,我之后打算做一个大的代理ip池,方便之后做分布式爬虫。

  使用firebug审查元素,查看如何解析html,上一篇我已经讲过了,所以就不详细说了,大家不明白的可以看看代理ip上篇。

下面咱们可以写代码了,由于咱们使用的是scrapy框架进行爬取,所以首先先生成scrapy工程,在cmd中 输入scrapy startproject proxySpider_scrapy,然后使用pycharm打开。

工程结构如下:

  db包中db_helper:实现的是mongodb的增删改查。和代理ip上篇增加了proxyId字段。

  detect包中 detect_proxy:验证代理ip的可用性的线程

  detect_manager: 用来管理验证线程,监控线程状态

  spiders包中 proxySpider:主要实现爬虫的逻辑和html解析

  items:主要是描述了ip和port

  pipelines:里面主要是将爬取到的ip和port存储到数据库中

  main:主要是完成参数的判断和爬虫的启动(咱们使用脚本来启动爬虫不使用命令行)

还要说一下检测:我是用 http://ip.chinaz.com/getip.aspx作为检测网址,只要使用代理访问不超时,而且响应码为200,咱们就认为是成功的代理。

  接下来运行程序看看效果:

  在windows下切换到工程目录,运行python main.py -h,会看到我定义的使用说明和参数设置。和上一篇基本上完全一样。

  接着运行python main.py -c 1 5  (意思是爬取1-5页的ip地址):

  这时候如果想验证ip的正确性:运行python main.py -t db

  使用多线程验证的速度非常快,我设置了个线程。两分钟不到,就验证结束。124个ip是可以使用的。

  看一下mongodb数据库:

  大家注意到那个proxyId字段了吗?这个在我们进行多线程分段验证的时候是很有用的。详细的使用,请看代码。

当咱们下一篇讲解突破反爬虫的时候就可以使用这些ip了。

 下面把解析和验证的代码贴一下:

  1. proxySpider.py:
  2. #coding:utf-8
  3. import scrapy
  4. from proxySpider_scrapy.db.db_helper import DB_Helper
  5. from proxySpider_scrapy.detect.detect_proxy import Detect_Proxy
  6. from proxySpider_scrapy.detect.detect_manager import Detect_Manager
  7. from proxySpider_scrapy.items import ProxyItem
  8.  
  9. '''
  10. 这个类的作用是将代理数据进行爬取
  11. '''
  12. class ProxySpider(scrapy.Spider):
  13. name = 'proxy'
  14. start_urls = ["http://www.xicidaili.com/nn/"]
  15. allowed_domains = []
  16. db_helper = DB_Helper()
  17. detecter = Detect_Manager(5)
  18. Page_Start = 1
  19. Page_End = 4
  20. headers = {
  21. 'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8',
  22. 'Accept-Language': 'en',
  23. 'Referer':'http://www.xicidaili.com/'
  24. }
  25.  
  26. def parse(self, response):
  27. '''
  28. 解析出其中的ip和端口
  29. :param response:
  30. :return:
  31. '''
  32. trs = response.xpath('//tr[@class="odd" or @class=""]')
  33. for tr in trs:
  34. item = ProxyItem()
  35. tds = tr.xpath('./td/text()').extract()
  36. for td in tds:
  37. content = td.strip()
  38. if len(content)>0:
  39. if content.isdigit():
  40. item['port'] = content
  41. print 'ip:',item['ip']
  42. print 'port:',item['port']
  43. break
  44. if content.find('.')!= -1:
  45. item['ip'] = content
  46.  
  47. yield item
  48. if self.Page_Start < self.Page_End:
  49. new_url = self.start_urls[0]+str(self.Page_Start)
  50. self.Page_Start += 1
  51. yield scrapy.Request(new_url,headers=self.headers,callback=self.parse)

  

  1. pipelines.py:
  2. # -*- coding: utf-8 -*-
  3.  
  4. # Define your item pipelines here
  5. #
  6. # Don't forget to add your pipeline to the ITEM_PIPELINES setting
  7. # See: http://doc.scrapy.org/en/latest/topics/item-pipeline.html
  8.  
  9. from proxySpider_scrapy.spiders.proxySpider import ProxySpider
  10.  
  11. class ProxyPipeline(object):
  12. proxyId = 1 #设置一个ID号,方便多线程验证
  13. def process_item(self, item, spider):
  14. '''
  15.  
  16. :param item:
  17. :param spider:
  18. :return:
  19. '''
  20. if spider.name == 'proxy':#需要判断是哪个爬虫
  21.  
  22. proxySpider = ProxySpider(spider)
  23. proxy = {'ip':item['ip'],'port':item['port']}
  24. proxy_all = {'ip':item['ip'],'port':item['port'],'proxyId':self.proxyId}
  25. if proxySpider.db_helper.insert(proxy,proxy_all) == True:#插入数据
  26. self.proxyId += 1
  27. return item
  28.  
  29. else:
  30. return item

  

  1. detect_manager.py:
  2. #coding:utf-8
  3. from threading import Thread
  4. import time
  5.  
  6. from proxySpider_scrapy.db.db_helper import DB_Helper
  7. from proxySpider_scrapy.detect.detect_proxy import Detect_Proxy
  8.  
  9. '''
  10. 定义一个管理线程,来管理产生的线程
  11. '''
  12. class Detect_Manager(Thread):
  13.  
  14. def __init__(self,threadSum):
  15. Thread.__init__(self)
  16. sqldb = DB_Helper()#将序号重新恢复
  17. sqldb.updateID()
  18. self.pool =[]
  19. for i in range(threadSum):
  20. self.pool.append(Detect_Proxy(DB_Helper(),i+1,threadSum))
  21.  
  22. def run(self):
  23. self.startManager()
  24. self.checkState()
  25.  
  26. def startManager(self):
  27. for thread in self.pool:
  28. thread.start()
  29.  
  30. def checkState(self):
  31. '''
  32. 这个函数是用来检测线程的状态
  33. :return:
  34. '''
  35. now = 0
  36. while now < len(self.pool):
  37. for thread in self.pool:
  38. if thread.isAlive():
  39. now = 0
  40. break
  41. else:
  42. now+=1
  43. time.sleep(0.1)
  44. goodNum=0
  45. badNum =0
  46. for i in self.pool:
  47.  
  48. goodNum += i.goodNum
  49. badNum += i.badNum
  50. sqldb = DB_Helper()#将序号重新恢复
  51. sqldb.updateID()
  52. print 'proxy good Num ---',goodNum
  53. print 'proxy bad Num ---',badNum

  

  1. detect_proxy.py:
  2. #coding:utf-8
  3. import socket
  4. from threading import Thread
  5.  
  6. import urllib
  7.  
  8. '''
  9. 这个类主要是用来检测代理的可用性
  10. '''
  11. class Detect_Proxy(Thread):
  12.  
  13. url = 'http://ip.chinaz.com/getip.aspx'
  14. def __init__(self,db_helper,part,sum):
  15. Thread.__init__(self)
  16. self.db_helper = db_helper
  17. self.part = part#检测的分区
  18. self.sum = sum#检索的总区域
  19.  
  20. self.counts = self.db_helper.proxys.count()
  21. socket.setdefaulttimeout(2)
  22. self.__goodNum = 0
  23. self.__badNum = 0
  24.  
  25. @property
  26. def goodNum(self):
  27. return self.__goodNum
  28.  
  29. @goodNum.setter
  30. def goodNum(self,value):
  31. self.__goodNum = value
  32.  
  33. @property
  34. def badNum(self):
  35. return self.__badNum
  36.  
  37. @badNum.setter
  38. def badNum(self,value):
  39. self.__badNum = value
  40.  
  41. def run(self):
  42.  
  43. self.detect()#开始检测
  44.  
  45. def detect(self):
  46. '''
  47. http://ip.chinaz.com/getip.aspx 作为检测目标
  48. :return:
  49. '''
  50.  
  51. if self.counts < self.sum:
  52. return
  53.  
  54. pre = self.counts/self.sum
  55. start = pre * (self.part-1)
  56. end = pre * self.part
  57. if self.part == self.sum:#如果是最后一部分,结束就是末尾
  58. end = self.counts
  59. # print 'pre-%d-start-%d-end-%d'%(pre,start,end)
  60.  
  61. proxys = self.db_helper.proxys.find({'proxyId':{'$gt':start,'$lte':end}})#大于start小于等于end,很重要
  62.  
  63. for proxy in proxys:
  64.  
  65. ip = proxy['ip']
  66. port = proxy['port']
  67. try:
  68. proxy_host ="http://ha:ha@"+ip+':'+port #随便添加了账户名和密码,只是为了防止填写账户名密码暂停的情况
  69. response = urllib.urlopen(self.url,proxies={"http":proxy_host})
  70. if response.getcode()!=200:
  71. self.db_helper.delete({'ip':ip,'port':port})
  72. self.__badNum += 1
  73. print proxy_host,'bad proxy'
  74. else:
  75. self.__goodNum += 1
  76. print proxy_host,'success proxy'
  77.  
  78. except Exception,e:
  79. print proxy_host,'bad proxy'
  80. self.db_helper.delete({'ip':ip,'port':port})
  81. self.__badNum += 1
  82. continue

  

  1. 完整的代码我已经上传到github上:
    https://github.com/qiyeboy/proxySpider_scrapy
  2.  
  1. 今天的分享就到这里,已经晚上12:15了,如果大家觉得还可以呀,请继续支持我。提前透露一下,下一篇会讲解突破反爬虫。

欢迎大家支持我公众号:

本文章属于原创作品,欢迎大家转载分享。尊重原创,转载请注明来自:七夜的故事 http://www.cnblogs.com/qiyeboy/

  1.  
  1.  

Scrapy爬取美女图片第三集 代理ip(下)的更多相关文章

  1. Scrapy爬取美女图片第三集 代理ip(上) (原创)

    首先说一声,让大家久等了.本来打算那天进行更新的,可是一细想,也只有我这样的单身狗还在做科研,大家可能没心思看更新的文章,所以就拖到了今天.不过忙了521,522这一天半,我把数据库也添加进来了,修复 ...

  2. Scrapy爬取美女图片第四集 突破反爬虫(上)

     本周又和大家见面了,首先说一下我最近正在做和将要做的一些事情.(我的新书<Python爬虫开发与项目实战>出版了,大家可以看一下样章) 技术方面的事情:本次端午假期没有休息,正在使用fl ...

  3. Scrapy爬取美女图片 (原创)

    有半个月没有更新了,最近确实有点忙.先是华为的比赛,接着实验室又有项目,然后又学习了一些新的知识,所以没有更新文章.为了表达我的歉意,我给大家来一波福利... 今天咱们说的是爬虫框架.之前我使用pyt ...

  4. Scrapy爬取美女图片续集 (原创)

    上一篇咱们讲解了Scrapy的工作机制和如何使用Scrapy爬取美女图片,而今天接着讲解Scrapy爬取美女图片,不过采取了不同的方式和代码实现,对Scrapy的功能进行更深入的运用.(我的新书< ...

  5. scrapy爬取美女图片

    使用scrapy爬取整个网站的图片数据.并且使用 CrawlerProcess 启动. 1 # -*- coding: utf-8 -* 2 import scrapy 3 import reques ...

  6. android高仿抖音、点餐界面、天气项目、自定义view指示、爬取美女图片等源码

    Android精选源码 一个爬取美女图片的app Android高仿抖音 android一个可以上拉下滑的Ui效果 android用shape方式实现样式源码 一款Android上的新浪微博第三方轻量 ...

  7. Python 爬取美女图片,分目录多级存储

    最近有个需求:下载https://mm.meiji2.com/网站的图片. 所以简单研究了一下爬虫. 在此整理一下结果,一为自己记录,二给后人一些方向. 爬取结果如图:   整体研究周期 2-3 天, ...

  8. 福利贴——爬取美女图片的Java爬虫小程序代码

    自己做的一个Java爬虫小程序 废话不多说.先上图. 目录命名是用标签缩写,假设大家看得不顺眼能够等完成下载后手动改一下,比方像有强迫症的我一样... 这是挂了一个晚上下载的总大小,只是还有非常多由于 ...

  9. 1、使用Python3爬取美女图片-网站中的每日更新一栏

    此代码是根据网络上其他人的代码优化而成的, 环境准备: pip install lxml pip install bs4 pip install urllib #!/usr/bin/env pytho ...

随机推荐

  1. 一起玩树莓派3+使用Gitlab搭建专业Git服务

    http://bbs.eeworld.com.cn/thread-505256-1-1.html https://packages.gitlab.com/gitlab/raspberry-pi2 ht ...

  2. nDPI 的论文阅读和机制解析

    nDPI: Open-Source High-Speed Deep Packet Inspection Wireless Communications & Mobile Computing C ...

  3. CC2640R2F&TI-RTOS 拿到 TI CC2640R2F 开发板 第三件事就是使用 TI-RTOS 创建 一个任务 和 使用 信号量 超时来闪烁 LED灯

    /* * data_process.c * * Created on: 2018年7月5日 * Author: admin */ #include <ti/sysbios/knl/Task.h& ...

  4. jquery css选择器

    1. $('node+next') == $('node').next() 2. $('node~siblings') == $('node').nextAll(); 3. :gt(index)大于i ...

  5. Web | DOM基本操作

    基本概念 文档对象模型 (DOM) 是HTML和XML文档的编程接口.它提供了对文档的结构化的表述,并定义了一种方式可以使程序对该结构进行访问,从而改变文档的结构,样式和内容.DOM 将文档解析为一个 ...

  6. 【Mac】安装 tesserocr 遇到的一些坑(‘cinttypes' file not found)

    问题描述 tesserocr 是 Python 的一个光学字符识别库,它其实是对 tesseract 做的一层 Python API 封装,所以在安装这个库之前我已经用 Homebrew 成功安装好了 ...

  7. 关于typedef在struct使用上的一些问题

    typedef struct lnode{ int data; struct lnode next; }lnode,linklist; 第一行的lnode是结构体名,最后一行的lnode是由typed ...

  8. MLT的学习理解

    MLT的学习理解 MLT是一个开源的多媒体库,我们的音视频编辑工具,是使用它作为底层支持,某司的'快剪辑'pc版和安卓版,也是用的它. MLT简介 它的GitHub地址,这个库比较老了,现在只有一个作 ...

  9. 5.18-笨办法学python-习题14

    有了习题13的基础,习题14就不是问题了. 这一节主要是一个简单的提示符.提示符就是像">"这个的东西,因为我们之前用input的时候,它是用来让用户输入的,可是平常人并不知 ...

  10. (数据科学学习手札48)Scala中的函数式编程

    一.简介 Scala作为一门函数式编程与面向对象完美结合的语言,函数式编程部分也有其独到之处,本文就将针对Scala中关于函数式编程的一些常用基本内容进行介绍: 二.在Scala中定义函数 2.1 定 ...