Python-S9-Day125-Web微信&爬虫框架之scrapy
01 今日内容概要
02 内容回顾:爬虫
03 内容回顾:网络和并发编程
04 Web微信之获取联系人列表
05 Web微信之发送消息
06 为什么request.POST拿不到数据
07 到底使用json还是data?
08 Web微信之接收消息
09 上述内容总结
10 scrapy安装
11 scrapy基本命令
12 scrapy示例:获取抽屉新闻
13 scrapy创建下载任务
14 今日作业
01 今日内容概要
1.1 Web微信;
1.1.1 获取联系人列表;
1.1.2 发送消息;
1.2 爬虫框架之scrapy(用的多,神箭手工具);
12.1 大而全的Web框架;类比于Django或Flask;
02 内容回顾:爬虫
2.1 第一部分:爬虫
2.1.1 requests和bs4基础
2.1.2 web知识
- 请求和请求
- 携带常见请求头——User-Agent\referer\host\content-type\cookie
- csrf_token——两个tab打开的同时,其中一个tab诱导我们对另外一个tab提交数据;
2.1.3 分析http请求——Chrome浏览器、FireFox浏览器;
2.1.4 爬虫的套路-汽车之家、抽屉、抽屉登录、github、拉钩、Web微信;
- XML-数据交换;配置文件;
03 内容回顾:网络和并发编程
3.1 OSI七层模型
3.2 三次握手和四次挥手
3.3 TCP和UDP的区别
3.4 路由器和交换机的区别
3.5 ARP协议
3.6 DNS解析
3.7 HTTP和HTTPS
3.8 进程、线程和携程
3.9 GIL锁
3.10 进程如何进程共享
04 Web微信之获取联系人列表
05 Web微信之发送消息
06 为什么request.POST拿不到数据
07 到底使用json还是data?
08 Web微信之接收消息
09 上述内容总结
9.1 Goal:锻炼分析HTTP请求的能力;
10 scrapy安装
10.1 在爬虫领域,是一个“大而全”的爬虫组件,涵盖了requests、bs4等组件的功能;
10.2 scrapy框架的安装
- windows——下载Twisted文件;pip3 install pywin32 ; pip3 install wheel
- Linux|Unix下的安装pip3 install scrapy;
11 scrapy基本命令
11.1 Django创建Django项目
- 创建项目django-admin startproject HelloDjango
- cd HelloDjango
- 创建应用python manage.py startapp app01
- python manage.py startapp app02
- 启动项目python manage.py runserver
11.2 Scrapy的基本命令;
- 创建项目 scrapy startproject HelloScrapy
- cd HelloScrapy
- scrapy genspider baidu baidu.com
- scrapy genspider jd jd.com
- scrapy crawl baidu
11.3 Scrapy的目录结构;
- scrapy.cfg#主配置文件;
- 项目名称HelloSrapy
- __init__.py
- items.py#定义爬取的数据结构
- middlewares.py#定义爬取时候的中间件
- pipelines.py#定义数据管道
- settings.py#配置文件;
- spiders目录#存放spiders的文件夹;
- __init__.py
12 scrapy示例:获取抽屉新闻
13 scrapy创建下载任务
14 今日作业
14.1 小结;
- HTML解析:xpath
- 再次发起请求:yield Request对象;
Python-S9-Day125-Web微信&爬虫框架之scrapy的更多相关文章
- 06 爬虫框架:scrapy
爬虫框架:scrapy 一 介绍 Scrapy一个开源和协作的框架,其最初是为了页面抓取 (更确切来说, 网络抓取 )所设计的,使用它可以以快速.简单.可扩展的方式从网站中提取所需的数据.但目前S ...
- 九、爬虫框架之Scrapy
爬虫框架之Scrapy 一.介绍 二.安装 三.命令行工具 四.项目结构以及爬虫应用简介 五.Spiders 六.Selectors 七.Items 八.Item Pipelin 九. Dowload ...
- 洗礼灵魂,修炼python(72)--爬虫篇—爬虫框架:Scrapy
题外话: 前面学了那么多,相信你已经对python很了解了,对爬虫也很有见解了,然后本来的计划是这样的:(请忽略编号和日期,这个是不定数,我在更博会随时改的) 上面截图的是我的草稿 然后当我开始写博文 ...
- 爬虫框架之Scrapy
一.介绍 二.安装 三.命令行工具 四.项目结构以及爬虫应用简介 五.Spiders 六.Selectors 七.Items 八.Item Pipelin 九. Dowloader Middeware ...
- 基于Python + requests 的web接口自动化测试框架
之前采用JMeter进行接口测试,每次给带新人进行培训比较麻烦,干脆用python实现,将代码和用例分离,易于维护. 项目背景 公司的软件采用B/S架构,进行数据存储.分析.管理 工具选择 pytho ...
- 爬虫框架:scrapy
一 介绍 Scrapy一个开源和协作的框架,其最初是为了页面抓取 (更确切来说, 网络抓取 )所设计的,使用它可以以快速.简单.可扩展的方式从网站中提取所需的数据.但目前Scrapy的用途十分广泛,可 ...
- 爬虫框架之Scrapy(一)
scrapy简介 scrapy是一个用python实现为了爬取网站数据,提取结构性数据而编写的应用框架,功能非常的强大. scrapy常应用在包括数据挖掘,信息处理或者储存历史数据的一系列程序中. s ...
- 爬虫框架之Scrapy(四 ImagePipeline)
ImagePipeline 使用scrapy框架我们除了要下载文本,还有可能需要下载图片,scrapy提供了ImagePipeline来进行图片的下载. ImagePipeline还支持以下特别的功能 ...
- 爬虫框架之Scrapy(三 CrawlSpider)
如何爬取一个网站的全站数据? 可以使用Scrapy中基于Spider的递归方式进行爬取(Request模块回调parse方法) 还有一种更高效的方法,就是基于CrawlSpider的自动爬取实现 简介 ...
随机推荐
- 关于web开发中订单自动超时和自动收货的简单方法(window server)
最近做一个订单自动超时和自动收货的功能,因为以前是用的mysql 存储过程和定时器来完成,这次的业务逻辑相对复杂用以前的方式就不太合适,本来是准备使用定时执行php脚本来实现的,后来发现业务逻辑中使用 ...
- springMvc-框架搭建
搭建springmvc框架的步骤: 1.在web.xml中配置springMvc的servlet 2.创建controller处理页面传来的数据, 3.床架springMvc文件,处理视图: 3.1: ...
- LeetCode Add Two Numbers 两个数相加
/** * Definition for singly-linked list. * struct ListNode { * int val; * ListNode *next; * ListNode ...
- WPS去掉英语单词下面的红斜线
我们在使用WPS的时候,经常会用到英语但是,但是在编码的时候,有些单词是缩写形成的,WPS就会自动验证,产生红色波浪线,提示我们单词写错的问题,那看起来就显得很不美观别扭 那么我们不想要这个红斜杠,怎 ...
- IOS NSNotificationCenter(通知 的使用)监听文本框的文字改变
监听文本框的文字改变 * 一个文本输入框的文字发生改变时,文本输入框会发出一个UITextFieldTextDidChangeNotification通知 * 因此通过监听通知来监听文本输入框的文字改 ...
- POJ 1631 Bridging signals(LIS的等价表述)
把左边固定,看右边,要求线不相交,编号满足单调性,其实是LIS的等价表述. (如果编号是乱的也可以把它有序化就像Uva 10635 Prince and Princess那样 O(nlogn) #in ...
- Android(java)学习笔记88:BaseAdapter适配器重写之getView()
1. BaseAdapter适配器重写 之getView(): (1)View getview(int position, View convertview, ViewGroup parent ) 第 ...
- Nginx源码安装及调优配置(转)
导读 由于Nginx本身的一些优点,轻量,开源,易用,越来越多的公司使用nginx作为自己公司的web应用服务器,本文详细介绍nginx源码安装的同时并对nginx进行优化配置. Nginx编译前 ...
- maven操作手册
===Maven的安装=== http://blog.csdn.net/yang5726685/article/details/56486479 ===Maven的jar包仓库地址配置=== http ...
- 生成.m文件的python代码中出现的错误
错误代码 import tempfile import subprocess import shlex import os import numpy as np import scipy.io scr ...