在用Python的urllib和BeautifulSoup写过了很多爬虫之后,本人决定尝试著名的Python爬虫框架——Scrapy.

  本次分享将详细讲述如何利用Scrapy来下载豆瓣电影Top250, 主要解决的问题有:

  • 如何利用ImagesPipeline来下载图片
  • 如何对下载后的图片重命名,这是因为Scrapy默认用Hash值来保存文件,这并不是我们想要的

  首先我们要爬取的豆瓣电影Top250网页截图如下:

![豆瓣电影Top250网页](http://img.blog.csdn.net/20180314130625190?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvamNsaWFuOTE=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)

  网页的结构并不复杂,所以,我们决定把所有的250部电影的图片都下载下来。接下来,就开始我们的Scrapy之旅啦~~
  首先我们新建一个Scrapy项目,叫做doubanMovie.

  1. scrapy startproject doubanMovie

该项目的文件树形结构如下:

![文件树形结构](http://img.blog.csdn.net/20180314131154143?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvamNsaWFuOTE=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)

  修改items.py如下:

  1. # -*- coding: utf-8 -*-
  2. import scrapy
  3. class DoubanmovieItem(scrapy.Item):
  4. # two items: url and name of image
  5. url = scrapy.Field()
  6. img_name = scrapy.Field()

这是我们用来存放图片的url和name的部分。

  接着,在spiders文件夹下,新建爬虫(Spider)文件:doubanMovieSpider.py, 文件代码如下:

  1. import scrapy
  2. from scrapy.spiders import Spider
  3. from scrapy.selector import Selector
  4. from doubanMovie.items import DoubanmovieItem
  5. class movieSpider(Spider):
  6. # name of Spider
  7. name = "movie"
  8. #start urls
  9. start_urls = ["https://movie.douban.com/top250"]
  10. for i in range(1,10):
  11. start_urls.append("https://movie.douban.com/top250?start=%d&filter="%(25*i))
  12. #parse function
  13. def parse(self, response):
  14. item = DoubanmovieItem()
  15. sel = Selector(response)
  16. images = sel.xpath('//*[@id="content"]/div/div[1]/ol/li')
  17. item['url'] = []
  18. item['img_name'] = []
  19. # append the url and name of the image in item
  20. for image in images:
  21. # extract url and name of the image
  22. site = image.xpath('div/div[1]/a/img/@src').extract_first()
  23. img_name = image.xpath('div/div[1]/a/img/@alt').extract_first()
  24. item['url'].append(site)
  25. item['img_name'].append(img_name)
  26. yield item

该部分代码主要利用xpath来提出网页中的电影图片的url和name,并添加到item中。

  为了能够对下载后的图片进行重命名,我们需要修改pipeline.py文件,代码如下:

  1. # -*- coding: utf-8 -*-
  2. from scrapy.pipelines.images import ImagesPipeline
  3. from scrapy.http import Request
  4. class DoubanmoviePipeline(object):
  5. def process_item(self, item, spider):
  6. return item
  7. class MyImagesPipeline(ImagesPipeline):
  8. # yield meta for file_path() function
  9. def get_media_requests(self, item, info):
  10. for url in item['url']:
  11. yield Request(url, meta={'item': item, 'index':item['url'].index(url)})
  12. # rename the image
  13. def file_path(self, request, response=None, info=None):
  14. item = request.meta['item']
  15. index = request.meta['index']
  16. image_name = item['img_name'][index]
  17. return 'full/%s.jpg' % (image_name)

在这儿我们添加了MyImagesPipeline类,主要目的是用来对下载后的图片进行重命名。

  最后一步,也是关键的一步,就是修改settings.py文件,将其中的ROBOTSTXT_OBEY设置为False, 这是为了防止爬虫被禁,并且添加以下代码:

  1. USER_AGENT = "Mozilla/5.0 (X11; Linux x86_64; rv:10.0) Gecko/20100101 Firefox/10.0"
  2. ITEM_PIPELINES {'doubanMovie.pipelines.DoubanmoviePipeline': 2,
  3. 'doubanMovie.pipelines.MyImagesPipeline':1 }
  4. IMAGES_URLS_FIELD = 'url'
  5. IMAGES_STORE = r'.'

在上面的代码中,我们设置了USER_AGENT, 这是为了在Linux系统中模拟浏览器的设置,读者可以根据自己的系统和浏览器来设置不同的USER_AGENT. 同时, 我们又加了ITEM_PIPELINES管道和图片的保存路径。

  一切就绪,我们就可以运行爬虫啦。切换到spiders文件夹下,输入scrapy list可以查看爬虫的名字,输入scrapy crawl movie即可运行爬虫。

![查看和运行爬虫](http://img.blog.csdn.net/20180314133712315?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvamNsaWFuOTE=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)

  movie爬虫的运行结果如下:

![爬虫运行结果](http://img.blog.csdn.net/20180314133902904?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvamNsaWFuOTE=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)

该爬虫下载了250个文件,用时约13秒,效率惊人啊!
  下载后的图片保存在当前文件夹(spiders)下的full文件夹下,我们来看一下里面的内容:

![下载图片](http://img.blog.csdn.net/20180314134256806?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvamNsaWFuOTE=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast)

  Surprise!Wonderful! 里面有没有你喜欢的电影呢?

  本项目的Github地址为 https://github.com/percent4/doubanMovieSpider, 欢迎大家访问哦~~

注意:本人现已开通两个微信公众号: 因为Python(微信号为:python_math)以及轻松学会Python爬虫(微信号为:easy_web_scrape), 欢迎大家关注哦~~

Scrapy爬虫(4)爬取豆瓣电影Top250图片的更多相关文章

  1. 一起学爬虫——通过爬取豆瓣电影top250学习requests库的使用

    学习一门技术最快的方式是做项目,在做项目的过程中对相关的技术查漏补缺. 本文通过爬取豆瓣top250电影学习python requests的使用. 1.准备工作 在pycharm中安装request库 ...

  2. 零基础爬虫----python爬取豆瓣电影top250的信息(转)

    今天利用xpath写了一个小爬虫,比较适合一些爬虫新手来学习.话不多说,开始今天的正题,我会利用一个案例来介绍下xpath如何对网页进行解析的,以及如何对信息进行提取的. python环境:pytho ...

  3. scrapy框架 + selenium 爬取豆瓣电影top250......

    废话不说,直接上代码..... 目录结构 items.py import scrapy class DoubanCrawlerItem(scrapy.Item): # 电影名称 movieName = ...

  4. scrapy爬虫框架教程(二)-- 爬取豆瓣电影TOP250

    scrapy爬虫框架教程(二)-- 爬取豆瓣电影TOP250 前言 经过上一篇教程我们已经大致了解了Scrapy的基本情况,并写了一个简单的小demo.这次我会以爬取豆瓣电影TOP250为例进一步为大 ...

  5. Scrapy中用xpath/css爬取豆瓣电影Top250:解决403HTTP status code is not handled or not allowed

    好吧,我又开始折腾豆瓣电影top250了,只是想试试各种方法,看看哪一种的方法效率是最好的,一直进行到这一步才知道 scrapy的强大,尤其是和selector结合之后,速度飞起.... 下面我就采用 ...

  6. scrapy爬取豆瓣电影top250

    # -*- coding: utf-8 -*- # scrapy爬取豆瓣电影top250 import scrapy from douban.items import DoubanItem class ...

  7. Python爬虫入门:爬取豆瓣电影TOP250

    一个很简单的爬虫. 从这里学习的,解释的挺好的:https://xlzd.me/2015/12/16/python-crawler-03 分享写这个代码用到了的学习的链接: BeautifulSoup ...

  8. python 爬虫&爬取豆瓣电影top250

    爬取豆瓣电影top250from urllib.request import * #导入所有的request,urllib相当于一个文件夹,用到它里面的方法requestfrom lxml impor ...

  9. urllib+BeautifulSoup无登录模式爬取豆瓣电影Top250

    对于简单的爬虫任务,尤其对于初学者,urllib+BeautifulSoup足以满足大部分的任务. 1.urllib是Python3自带的库,不需要安装,但是BeautifulSoup却是需要安装的. ...

随机推荐

  1. Sudoku(POJ2676/3074)

    Sudoku is one of the metaphysical techniques. If you understand the essence of it, you will have the ...

  2. 可遇不可求的Question之INSERT … ON DUPLICATE KEY UPDATE 语法篇

    MySQL 自4.1版以后开始支持INSERT … ON DUPLICATE KEY UPDATE语法,使得原本需要执行3条SQL语句(SELECT,INSERT,UPDATE),缩减为1条语句即可完 ...

  3. POM文件详解(2)

    1      项目构建 <!-- 构建项目需要的信息 --> <build> <!-- 子项目可以引用的默认插件信息.该插件配置项直到被引用时才会被解析或绑定到生命周期. ...

  4. BigDecimal比较2个值是否相等,不能用equals,而要用compareTo

    BigDecimal比较相等,不能用equals,要用compareTo

  5. 我所理解的Android组件化之通信机制

    之前写过一篇关于Android组件化的文章,<Android组件化框架设计与实践>,之前没看过的小伙伴可以先点击阅读.那篇文章是从实战中进行总结得来,是公司的一个真实项目进行组件化架构改造 ...

  6. JavaScript标识符与关键字和保留字

    区分大小写 JavaScript中的一切(变量.函数名.操作符)都区分大小写.例如,变量名itbsl和变量名ITbsl是两个不同的变量. 标识符 所谓标识符,就是指变量.函数.属性的名字,或者函数的参 ...

  7. 《http权威指南》读书笔记9

    概述 最近对http很感兴趣,于是开始看<http权威指南>.别人都说这本书有点老了,而且内容太多.我个人觉得这本书写的太好了,非常长知识,让你知道关于http的很多概念,不仅告诉你怎么做 ...

  8. python zeros用法实例

    编程就是踩坑的过程.今天又踩了一个坑,做个积累吧. 在给数组赋初始值的时候,经常会用到0数组,而Python中,我们使用zero()函数来实现.在默认的情况下,zeros创建的数组元素类型是浮点型的, ...

  9. gcc编译参数详解概述

    gcc 编译器是经常使用的,可是,自己却没有针对它做过专门的研究,当遇到问题了,总结一下,算是对未来有个积累吧. 一 关于编译告警: 1 -w : 关闭所有警告,不建议使用 2 -W 开启素有gcc ...

  10. Python - 调试Python代码的方法

    调试(debug) 将可疑环节的变量逐步打印出来,从而检查哪里是否有错. 让程序一部分一部分地运行起来.从核心功能开始,写一点,运行一点,再修改一点. 利用工具,例如一些IDE中的调试功能,提高调试效 ...