前面介绍了ImagesPipeline用于下载图片,Scrapy还提供了FilesPipeline用与文件下载.和之前的ImagesPipeline一样,FilesPipeline使用时只需要通过item的一个特殊字段将要下载的文件或图片的url传递给它们,它们便会自动将文件或图片下载到本地.将下载结果信息存入item的另一个特殊字段,便于用户在导出文件中查阅.工作流程如下: 1 在一个爬虫里,你抓取一个项目,把其中图片的URL放入 file_urls 组内. 2 项目从爬虫内返回,进入项目管道…
网络爬虫之scripy系列 [scrapy网络爬虫]之0 爬虫与反扒 [scrapy网络爬虫]之一 scrapy框架简介和基础应用 [scrapy网络爬虫]之二 持久化操作 [scrapy网络爬虫]之三 递归解析和post请求 [scrapy网络爬虫]之四 日志等级和请求传参 [scrapy网络爬虫]之五 CrawlSpider操作 [scrapy网络爬虫]之六 selenium在scrapy中的应用 [scrapy网络爬虫]之七 UA池和代理池在scrapy中的应用 [scrapy网络爬虫]之…
解决下载(或叫:爬取)到的网页乱码问题 使用的系统:Windows 10 64位 Python 语言版本:Python 2.7.10 V 使用的编程 Python 的集成开发环境:PyCharm 2016 04 我使用的 urllib 的版本:urllib2 注意: 我没这里使用的是 Python2 ,而不是Python3 上一节,我介绍了如何下载网页.这样节我们来讲:如果我们下载一个带有中文的网站,或者日文的网站,终止就是不全是英文的网站,解决乱码问题. 一 . 解释乱码原因 Q: 为什么会出…
ftp server 1) 读取文件名 2)检查文件是否存在 3)打开文件 4)检查文件大小 5)发送文件大小给客户端 6)等客户端确认 7)开始边读边(md5计算)发数据 8)给客户端发md5 ftp下载文件 服务器 # -*- coding:utf-8 -*- __author__ = 'shisanjun' import socket import os import hashlib server=socket.socket() server.bind(("127.0.0.1",…
在前面的章节中都介绍了scrapy如何爬取网页数据,今天介绍下如何爬取图片. 下载图片需要用到ImagesPipeline这个类,首先介绍下工作流程: 1 首先需要在一个爬虫中,获取到图片的url并存储起来.也是就是我们项目中test_spider.py中testSpider类的功能 2 项目从爬虫返回,进入到项目通道也就是pipelines中 3 在通道中,在第一步中获取到的图片url将被scrapy的调度器和下载器安排下载. 4 下载完成后,将返回一组列表,包括下载路径,源抓取地址和图片的校…
前面介绍的scrapy爬虫只能爬取单个网页.如果我们想爬取多个网页.比如网上的小说该如何如何操作呢.比如下面的这样的结构.是小说的第一篇.可以点击返回目录还是下一页 对应的网页代码: 我们再看进入后面章节的网页,可以看到增加了上一页 对应的网页代码: 通过对比上面的网页代码可以看到. 上一页,目录,下一页的网页代码都在<div>下的<a>元素的href里面.不同的是第一章只有2个<a>元素,从二章开始就有3个<a>元素.因此我们可以通过<div>…
前面曾经介绍过requests实现自动登录的方法.这里介绍下使用scrapy如何实现自动登录.还是以csdn网站为例. Scrapy使用FormRequest来登录并递交数据给服务器.只是带有额外的formdata参数用来传送登录的表单信息(用户名和密码),为了使用这个类,需要使用以下语句导入:from scrapy.http import FormRequest 那么关于登录过程中使用cookie值,scrapy会自动为我们处理cookie,只要我们登录成功了,它就会像一个浏览器一样自动传送c…
我们除了爬取文本信息,有的时候还需要爬媒体信息,比如视频图片音乐等.就拿B站来说,我的收藏夹内的视频可能随时会失效,所以把它们下载到本地是非常保险的一件事. 对于这种大量列表型的数据,可以猜测B站收藏夹的请求中,详细的收藏详细可能会是异步加载的,因为这部分数据可能比较庞大. 我们来分析一下网络请求. 可以看到对收藏夹的请求是指定URL加收藏夹的id号,我们爬取的前提是这个收藏夹是公共收藏夹,不然是无法访问的. 再来看他的返回,明显没有收藏视频的信息,所以可以判断收藏视频的信息是通过api接口异步…
scrapy 常用命令 startproject  创建一个新的工程 scrapy startproject <name>[dir] genspider    创建一个爬虫        scrapy genspider  [options]<name><domain> settings  获得爬虫的配置信息scrapy settings [options] crawl           运行一个爬虫 scrapy crawl <spider> list …
Python网络爬虫实战笔记③如何下载韩寒博客文章 Python网络爬虫实战笔记③如何下载韩寒博客文章 target:下载全部的文章 1. 博客列表页面规则 也就是, http://blog.sina.com.cn/s/articlelist_1191258123_0_*.html 字符串的连接: 但是字符串和整型变量不能连接在一起 这个时候可以用str()函数 再回到题目上来, http://blog.sina.com.cn/s/articlelist_1191258123_0_*.html中…