Python-S9-Day125-Web微信&爬虫框架之scrapy
01 今日内容概要
02 内容回顾:爬虫
03 内容回顾:网络和并发编程
04 Web微信之获取联系人列表
05 Web微信之发送消息
06 为什么request.POST拿不到数据
07 到底使用json还是data?
08 Web微信之接收消息
09 上述内容总结
10 scrapy安装
11 scrapy基本命令
12 scrapy示例:获取抽屉新闻
13 scrapy创建下载任务
14 今日作业
01 今日内容概要
1.1 Web微信;
1.1.1 获取联系人列表;
1.1.2 发送消息;
1.2 爬虫框架之scrapy(用的多,神箭手工具);
12.1 大而全的Web框架;类比于Django或Flask;
02 内容回顾:爬虫
2.1 第一部分:爬虫
2.1.1 requests和bs4基础
2.1.2 web知识
- 请求和请求
- 携带常见请求头——User-Agent\referer\host\content-type\cookie
- csrf_token——两个tab打开的同时,其中一个tab诱导我们对另外一个tab提交数据;
2.1.3 分析http请求——Chrome浏览器、FireFox浏览器;
2.1.4 爬虫的套路-汽车之家、抽屉、抽屉登录、github、拉钩、Web微信;
- XML-数据交换;配置文件;
03 内容回顾:网络和并发编程
3.1 OSI七层模型
3.2 三次握手和四次挥手
3.3 TCP和UDP的区别
3.4 路由器和交换机的区别
3.5 ARP协议
3.6 DNS解析
3.7 HTTP和HTTPS
3.8 进程、线程和携程
3.9 GIL锁
3.10 进程如何进程共享
04 Web微信之获取联系人列表
05 Web微信之发送消息
06 为什么request.POST拿不到数据
07 到底使用json还是data?
08 Web微信之接收消息
09 上述内容总结
9.1 Goal:锻炼分析HTTP请求的能力;
10 scrapy安装
10.1 在爬虫领域,是一个“大而全”的爬虫组件,涵盖了requests、bs4等组件的功能;
10.2 scrapy框架的安装
- windows——下载Twisted文件;pip3 install pywin32 ; pip3 install wheel
- Linux|Unix下的安装pip3 install scrapy;
11 scrapy基本命令
11.1 Django创建Django项目
- 创建项目django-admin startproject HelloDjango
- cd HelloDjango
- 创建应用python manage.py startapp app01
- python manage.py startapp app02
- 启动项目python manage.py runserver
11.2 Scrapy的基本命令;
- 创建项目 scrapy startproject HelloScrapy
- cd HelloScrapy
- scrapy genspider baidu baidu.com
- scrapy genspider jd jd.com
- scrapy crawl baidu
11.3 Scrapy的目录结构;
- scrapy.cfg#主配置文件;
- 项目名称HelloSrapy
- __init__.py
- items.py#定义爬取的数据结构
- middlewares.py#定义爬取时候的中间件
- pipelines.py#定义数据管道
- settings.py#配置文件;
- spiders目录#存放spiders的文件夹;
- __init__.py
12 scrapy示例:获取抽屉新闻
13 scrapy创建下载任务
14 今日作业
14.1 小结;
- HTML解析:xpath
- 再次发起请求:yield Request对象;
Python-S9-Day125-Web微信&爬虫框架之scrapy的更多相关文章
- 06 爬虫框架:scrapy
爬虫框架:scrapy 一 介绍 Scrapy一个开源和协作的框架,其最初是为了页面抓取 (更确切来说, 网络抓取 )所设计的,使用它可以以快速.简单.可扩展的方式从网站中提取所需的数据.但目前S ...
- 九、爬虫框架之Scrapy
爬虫框架之Scrapy 一.介绍 二.安装 三.命令行工具 四.项目结构以及爬虫应用简介 五.Spiders 六.Selectors 七.Items 八.Item Pipelin 九. Dowload ...
- 洗礼灵魂,修炼python(72)--爬虫篇—爬虫框架:Scrapy
题外话: 前面学了那么多,相信你已经对python很了解了,对爬虫也很有见解了,然后本来的计划是这样的:(请忽略编号和日期,这个是不定数,我在更博会随时改的) 上面截图的是我的草稿 然后当我开始写博文 ...
- 爬虫框架之Scrapy
一.介绍 二.安装 三.命令行工具 四.项目结构以及爬虫应用简介 五.Spiders 六.Selectors 七.Items 八.Item Pipelin 九. Dowloader Middeware ...
- 基于Python + requests 的web接口自动化测试框架
之前采用JMeter进行接口测试,每次给带新人进行培训比较麻烦,干脆用python实现,将代码和用例分离,易于维护. 项目背景 公司的软件采用B/S架构,进行数据存储.分析.管理 工具选择 pytho ...
- 爬虫框架:scrapy
一 介绍 Scrapy一个开源和协作的框架,其最初是为了页面抓取 (更确切来说, 网络抓取 )所设计的,使用它可以以快速.简单.可扩展的方式从网站中提取所需的数据.但目前Scrapy的用途十分广泛,可 ...
- 爬虫框架之Scrapy(一)
scrapy简介 scrapy是一个用python实现为了爬取网站数据,提取结构性数据而编写的应用框架,功能非常的强大. scrapy常应用在包括数据挖掘,信息处理或者储存历史数据的一系列程序中. s ...
- 爬虫框架之Scrapy(四 ImagePipeline)
ImagePipeline 使用scrapy框架我们除了要下载文本,还有可能需要下载图片,scrapy提供了ImagePipeline来进行图片的下载. ImagePipeline还支持以下特别的功能 ...
- 爬虫框架之Scrapy(三 CrawlSpider)
如何爬取一个网站的全站数据? 可以使用Scrapy中基于Spider的递归方式进行爬取(Request模块回调parse方法) 还有一种更高效的方法,就是基于CrawlSpider的自动爬取实现 简介 ...
随机推荐
- 基于jeesit下的工作流开发步骤
首先jeesit是开源的OA系统,采用的框架是springMVC和mybatis,采用shiro安全验证. 1.新建流程所属表: 在数据库新建所需工作流的表之后,登录jeesit系统,在“代码生成”- ...
- UVA Stacks of Flapjacks 栈排序
题意:给一个整数序列,输出每次反转的位置,输出0代表排序完成.给一个序列1 2 3 4 5,这5就是栈底,1是顶,底到顶的位置是从1~5,每次反转是指从左数第i个位置,将其及其左边所有的数字都反转,假 ...
- pta 编程题8 Tree Traversals Again
其它pta数据结构编程题请参见:pta 这次的作业考察的是树的遍历. 题目的输入通过栈的pop给出了树的中序遍历的顺序.根据push和pop的顺序构造树的方法为:定义一个变量father来确定父节点, ...
- 3218: 字符串字符统计—C语言
3218: 字符串字符统计—C语言 时间限制: 1 Sec 内存限制: 128 MB提交: 270 解决: 129[提交][状态][讨论版][命题人:smallgyy] 题目描述 编写一函数,由实 ...
- VC-基础-WebBrowser控件中弹出新网页窗口
用webbrowser控件浏览网页时,常弹出新的网页窗口,若不做任何控制的话,会在默认浏览器(一般是IE)中打开,这样就在新的窗口打开了,原程序就很难控制了,且存在webbrowser控件和IE的se ...
- perl 输出当前时间
#!/bin/perluse POSIX;print strftime("%Y-%m-%d %H:%M:%S", localtime);
- Access数据库远程连接的实用方法
一般在远程文件夹开启文件共享即可通过像平常一样用连接字符串访问,注意共享的读写权限. 远程(如通过互联网)连接access数据库的示例: 首先,需要使用TCP/IP,ADO及XML(需要安装Micro ...
- vue项目跨域问题
跨域 了解同源政策:所谓"同源"指的是"三个相同". 协议相同 域名相同 端口相同 解决跨域 jsonp 缺点:只能get请求 ,需要修改B网站的代码 cors ...
- Apache 查找httpd.conf文件
Linux下查找httpd.conf文件 $ find / -name httpd.conf
- 【Python学习之十】yield之send方法
yield作用 简单地讲,yield 的作用就是把一个函数变成一个 generator,带有 yield 的函数不再是一个普通函数,Python 解释器会将其视为一个 generator.下面以斐波拉 ...