首页
Python
Java
IOS
Andorid
NodeJS
JavaScript
HTML5
【
Python 基于request库的get,post,delete,封装
】的更多相关文章
Python 基于request库的get,post,delete,封装
# coding=utf-8 import json import requests class TestApi(object): """ /* @param: @session ,@cookies the request can be divided into session request and cookie request according to user's own choice however,url and header is must ,other para…
基于python的request库,模拟登录csdn博客
以前爬虫用urllib2来实现,也用过scrapy的爬虫框架,这次试试requests,刚开始用,用起来确实比urllib2好,封装的更好一些,使用起来简单方便很多. 安装requests库 最简便的方法就是使用pip来安装:pip install requests:如果需要安装特定版本,则在后面加上版本号即可:pip install requests == 1.9.7,这样就搞定了. 快速上手的小例子 下面说一个最简单的例子: 第一行,引入requests库,这是必然的. 第二行,通过…
在Python中用Request库模拟登录(一):字幕库(无加密,无验证码)
字幕库的登录表单如下所示,其中省去了无关紧要的内容: <form class="login-form" action="/User/login.html" method="post"> <input type="hidden" name="referer" value="http://www.zimuku.net/"> <input type="t…
在Python中用Request库模拟登录(四):哔哩哔哩(有加密,有验证码)
!已失效! 抓包分析 获取验证码 获取加密公钥 其中hash是变化的,公钥key不变 登录 其中用户名没有被加密,密码被加密. 因为在获取公钥的时候同时返回了一个hash值,推测此hash值与密码加密有关. 通过谷歌浏览器控制台分析js代码 右键登录按钮,检查,查看 Event Listeners ,点击a.btn.btn-login右边的login.4f030c3....js:6查看js代码. 点击左下角的{}展开代码 因为获取公钥和hash的链接中有action=getkey,尝试在源代码中…
在Python中用Request库模拟登录(三):Discuz论坛(未加密,有验证码,有隐藏验证)
以Discuz的官方站为例.直接点击网页右上角的登录按钮,会弹出一个带验证码的登录窗口.输入验证码之后,会检查验证码是否正确.然后登录.首先,通过抓包分析,这些过程浏览器和服务器交换了哪些数据. 抓包分析 整个过程产生了5条数据: 一 第一个是GET请求,返回了一段html代码 <div id="main_messaqge_LZH8S"> <div id="layer_login_LZH8S"> <h3 class="flb&…
python基于pillow库的简单图像处理
from PIL import Image from PIL import ImageFilter from PIL import ImageEnhance import matplotlib.pyplot as plt # 将彩色图片转成灰度图片 img = Image.open('pic.jpg') # 读取图片 gray = img.convert('L') # 转成灰度图 plt.figure('将彩色图片转成灰度图片') plt.subplot(1,2,1) plt.title("or…
Python request库与爬虫框架
Requests库的7个主要方法 requests.request():构造一个请求,支持以下各方法的基础方法 requests.get():获取HTML网页的主要方法,对应于HTTP的GET requests.head():获取HTML网页头信息的方法,对应于HTTP的HEAD requests.post():向HTML网页提交POST请求的方法,对应于HTTP的POST requests.put():向HTML网页提交PUT请求的方法,对应于HTTP的PUT requests.p…
Python网络爬虫与信息提取[request库的应用](单元一)
---恢复内容开始--- 注:学习中国大学mooc 嵩天课程 的学习笔记 request的七个主要方法 request.request() 构造一个请求用以支撑其他基本方法 request.get(url,params=None,**kwarg) 12个参数 获取html的主要方法,对应于http的GET request.head(url,**kwargs) 13个参数 获取网页头信息的方法,对应于http的head request.post(url,data=None,json…
python爬虫 - Urllib库及cookie的使用
http://blog.csdn.net/pipisorry/article/details/47905781 lz提示一点,python3中urllib包括了py2中的urllib+urllib2.[python2和python3的区别.转换及共存 - urllib] 怎样扒网页? 其实就是根据URL来获取它的网页信息,虽然我们在浏览器中看到的是一幅幅优美的画面,但是其实是由浏览器解释才呈现出来的,实质它是一段HTML代码,加 JS.CSS. 如果把网页比作一个人,那么HTML便是他的骨架,J…
爬虫request库规则与实例
Request库的7个主要方法: requests.request(method,url,**kwargs) method:请求方式,对应get/put/post等7种: r = requests.request('GET',url,**kwargs) r = requests.request('HEAD',url,**kwargs) ...... url:拟获取页面的url链接: **kwargs:控制访问的参数,共13个:均为可选项 params : 字典或字节序…