基于requests模块的cookie操作

引言:有些时候,我们在使用爬虫程序去爬取一些用户相关信息的数据(爬取某个人“人人网”个人主页数据)时,如果使用之前requests模块常规操作时,往往达不到我们想要的目的

例如:我们要得到如下的形式

但是,我们通过之前所学习的知识

  1. import requests
  2. # 人人网个人信息页面的url
  3. url = 'http://www.renren.com'
  4.  
  5. # 伪装UA
  6. headers = {
  7. 'user-agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/71.0.3578.98 Safari/537.36'
  8. }
  9. # 发送请求,获取响应对象
  10. response = requests.get(url=url, headers=headers)
  11. # 将响应内容写入文件
  12. with open('./renren.html', 'w', encoding='utf-8') as fp:
  13. fp.write(response.text)

得到的是,

呀 呀 呀  什么原因啊? 不是我想要的啊

不急不急,,我们分析一下啊

当用户通过浏览器首次访问一个域名时,访问的web服务器会给客户端发送数据,以保持web服务器与客户端之间的状态保持,这些数据就是cookies,,,我们之所以没有拿到我们想要的页面数据,其实就是cookies搞得,既然我们知道了病症在哪里,我们就可以对症下药了

回顾cookies:

  1. cookie概念:当用户通过浏览器首次访问一个域名时,访问的web服务器会给客户端发送数据,以保持web服务器与客户端之间的状态保持,这些数据就是cookie
  2.  
  3. cookie作用:我们在浏览器中,经常涉及到数据的交换,比如你登录邮箱,登录一个页面。我们经常会在此时设置30天内记住我,或者自动登录选项。那么它们是怎么记录信息的呢,
  4.        答案就是今天的主角cookie了,Cookie是由HTTP服务器设置的,保存在浏览器中,但HTTP协议是一种无状态协议,在数据交换完毕后,服务器端和客户端的链接就会关闭,
  5.       每次交换数据都需要建立新的链接。就像我们去超市买东西,没有积分卡的情况下,我们买完东西之后,超市没有我们的任何消费信息,但我们办了积分卡之后,
          超市就有了我们的消费信息。cookie就像是积分卡,可以保存积分,商品就是我们的信息,超市的系统就像服务器后台,http协议就是交易的过程。

ok 回答上面的问题,我们如何获取某个人的个人页面?

思路:

1.我们需要使用爬虫程序对人人网的登录时的请求进行一次抓取,获取请求中的cookie数据(也就是post请求,可以使用抓包工具)

2.在使用个人信息页的url进行请求时,该请求需要携带 1 中的cookie,只有携带了cookie后,服务器才可识别这次请求的用户信息,方可响应回指定的用户信息页数据

  2.1创建一个session对象[session=request.session()],该对象可以发起请求,可以自动将请求后的创建cookies进行储存

  2.2我们用session发送post请求和get请求

  1.  
  1. import requests
    # 创建一个session对象,该对象会自动将请求中的cookie进行存储和携带
    session = requests.session()
    # 进行登录---抓包工具来抓取
    url = 'http://www.renren.com/ajaxLogin/login?1=1&uniqueTimestamp=20181112117492'
  2.  
  3. data = {
    'email': 'xxxxxxxxx@qq.com',
    'icode': '',
    'origURL': 'http://www.renren.com/home',
    'domain': 'renren.com',
    'key_id': '1',
    'captcha_type': 'web_login',
    'password': '7811f0544e2349254cd09be8476db8a700c1e039d2b5f2',
    'rkey': '3f39d976fc598199c3e29b75c713bf2e',
    'f': 'http%3A%2F%2Fwww.renren.com%2F447007586'
    }
  4.  
  5. headers = {
    'user-agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/71.0.3578.98 Safari/537.36'
    }
    # 使用session发送请求,目的是为了将session保存该次请求中的cookie
    res = session.post(url=url, headers=headers, data=data)
  6.  
  7. # 再次使用session进行请求的发送,该次请求中已经携带了cookie
    person_url = 'http://www.renren.com/447007586'
    person_res = session.get(url=person_url, headers=headers).text
  8.  
  9. with open('./renren.html', 'w', encoding='utf-8') as fp:
    fp.write(person_res)

没有验证码出现的时候可以采取以上步骤来实现,但是我们还会遇见带验证码的情况,我们怎么做呢?接下来 我们就操作携带验证码的操作

  1. # 自己封装一下
    import requests
  2. from lxml import etree
  3. import http.client, mimetypes, urllib, json, time, requests
  4.  
  5. ###########################################################################
  6. # 云打码自己的代码
  7. class YDMHttp:
  8. apiurl = 'http://api.yundama.com/api.php'
  9. username = ''
  10. password = ''
  11. appid = ''
  12. appkey = ''
  13.  
  14. def __init__(self, username, password, appid, appkey):
  15. self.username = username
  16. self.password = password
  17. self.appid = str(appid)
  18. self.appkey = appkey
  19.  
  20. def request(self, fields, files=[]):
  21. response = self.post_url(self.apiurl, fields, files)
  22. response = json.loads(response)
  23. return response
  24.  
  25. def balance(self):
  26. data = {'method': 'balance', 'username': self.username, 'password': self.password, 'appid': self.appid,
  27. 'appkey': self.appkey}
  28. response = self.request(data)
  29. if (response):
  30. if (response['ret'] and response['ret'] < ):
  31. return response['ret']
  32. else:
  33. return response['balance']
  34. else:
  35. return -
  36.  
  37. def login(self):
  38. data = {'method': 'login', 'username': self.username, 'password': self.password, 'appid': self.appid,
  39. 'appkey': self.appkey}
  40. response = self.request(data)
  41. if (response):
  42. if (response['ret'] and response['ret'] < ):
  43. return response['ret']
  44. else:
  45. return response['uid']
  46. else:
  47. return -
  48.  
  49. def upload(self, filename, codetype, timeout):
  50. data = {'method': 'upload', 'username': self.username, 'password': self.password, 'appid': self.appid,
  51. 'appkey': self.appkey, 'codetype': str(codetype), 'timeout': str(timeout)}
  52. file = {'file': filename}
  53. response = self.request(data, file)
  54. if (response):
  55. if (response['ret'] and response['ret'] < ):
  56. return response['ret']
  57. else:
  58. return response['cid']
  59. else:
  60. return -
  61.  
  62. def result(self, cid):
  63. data = {'method': 'result', 'username': self.username, 'password': self.password, 'appid': self.appid,
  64. 'appkey': self.appkey, 'cid': str(cid)}
  65. response = self.request(data)
  66. return response and response['text'] or ''
  67.  
  68. def decode(self, filename, codetype, timeout):
  69. cid = self.upload(filename, codetype, timeout)
  70. if (cid > ):
  71. for i in range(, timeout):
  72. result = self.result(cid)
  73. if (result != ''):
  74. return cid, result
  75. else:
  76. time.sleep()
  77. return -, ''
  78. else:
  79. return cid, ''
  80.  
  81. def report(self, cid):
  82. data = {'method': 'report', 'username': self.username, 'password': self.password, 'appid': self.appid,
  83. 'appkey': self.appkey, 'cid': str(cid), 'flag': ''}
  84. response = self.request(data)
  85. if (response):
  86. return response['ret']
  87. else:
  88. return -
  89.  
  90. def post_url(self, url, fields, files=[]):
  91. for key in files:
  92. files[key] = open(files[key], 'rb');
  93. res = requests.post(url, files=files, data=fields)
  94. return res.text
  95.  
  96. ###########################################################################
  97. # 读取验证码
  98. def get_code(ImgPath):
  99. # 用户名
  100. username = 'xxxxxxxxxxxxxx'
  101.  
  102. # 密码
  103. password = 'yyyyyyyyyyyyyy'
  104.  
  105. # 软件ID,开发者分成必要参数。登录开发者后台【我的软件】获得!
  106. appid = 010101010101
  107.  
  108. # 软件密钥,开发者分成必要参数。登录开发者后台【我的软件】获得!
  109. appkey = '63e7af3a18ed1266b20dcbbb.......'
  110.  
  111. # 图片文件
  112. filename = ImgPath
  113.  
  114. # 验证码类型,# 例:1004表示4位字母数字,不同类型收费不同。请准确填写,否则影响识别率。在此查询所有类型 http://www.yundama.com/price.html
  115. codetype =
  116.  
  117. # 超时时间,秒
  118. timeout =
  119.  
  120. # 检查
  121. if (username == 'username'):
  122. print('请设置好相关参数再测试')
  123. else:
  124. # 初始化
  125. yundama = YDMHttp(username, password, appid, appkey)
  126.  
  127. # 登陆云打码
  128. uid = yundama.login();
  129. print('uid: %s' % uid)
  130.  
  131. # 查询余额
  132. balance = yundama.balance();
  133. print('balance: %s' % balance)
  134.  
  135. # 开始识别,图片路径,验证码类型ID,超时时间(秒),识别结果
  136. cid, result = yundama.decode(filename, codetype, timeout);
  137. print('cid: %s, result: %s' % (cid, result))
  138. return result # 返回值
  139.  
  140. ############################################################################
  141. headers = {
  142. 'user-agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/71.0.3578.98 Safari/537.36'
  143. }
  144. ###############################################################################
  145. # 下载验证码图片
  146. url = 'http://www.renren.com/'
  147. page_text = requests.get(url=url, headers=headers).text
  148. tree = etree.HTML(page_text)
  149. code_url = tree.xpath('//*[@id="codeimg"]/dd/img/@src')[]
  150.  
  151. code_pic = requests.get(url=code_url, headers=headers).content
  152.  
  153. with open('./code.jpg', 'wb') as f:
  154. f.write(code_pic)
  155.  
  156. #################################################################################
  157. # 获取验证码图片的内容
  158. code_content = get_code('./code.jpg')
  159. ##########################################################################
  160.  
  161. # 创建一个session对象,该对象会自动将请求中的cookie进行存储和携带
  162. session = requests.session()
  163. # 进行登录---抓包工具来抓取
  164. url = 'http://www.renren.com/ajaxLogin/login?1=1&uniqueTimestamp=20181112117492'
  165.  
  166. data = {
  167. 'email': 'xxxxxxx',
  168. 'icode': code_content,
  169. 'origURL': 'http://www.renren.com/home',
  170. 'domain': 'renren.com',
  171. 'key_id': '',
  172. 'captcha_type': 'web_login',
  173. 'password': '708cfa72a3e30bc6d11811f054e039d2b5f2',
  174. 'rkey': '3f39d976fc598199c3e29b2e',
  175. 'f': 'http%3A%2F%2Fwww.renren.com%2F447007586'
  176. }
  177.  
  178. # 使用session发送请求,目的是为了将session保存该次请求中的cookie
  179. res = session.post(url=url, headers=headers, data=data)
  180.  
  181. # 再次使用session进行请求的发送,该次请求中已经携带了cookie
  182. person_url = 'http://www.renren.com/447007586'
  183. person_res = session.get(url=person_url, headers=headers).text
  184.  
  185. with open('./renren.html', 'w', encoding='utf-8') as fp:
  186. fp.write(person_res)

基于requests模块的代理操作

  • 什么是代理

    • 代理就是第三方代替本体处理相关事务。例如:生活中的代理:代购,中介,微商......

  • 爬虫中为什么需要使用代理

    • 一些网站会有相应的反爬虫措施,例如很多网站会检测某一段时间某个IP的访问次数,如果访问频率太快以至于看起来不像正常访客,它可能就会会禁止这个IP的访问。所以我们需要设置一些代理IP,每隔一段时间换一个代理IP,就算IP被禁止,依然可以换个IP继续爬取。

  • 代理的分类:

    • 正向代理:代理客户端获取数据。正向代理是为了保护客户端防止被追究责任。

    • 反向代理:代理服务器提供数据。反向代理是为了保护服务器或负责负载均衡。

  • 免费代理ip提供网站

    • http://www.goubanjia.com/

  1. import requests
  2.  
  3. url = 'https://www.baidu.com/s'
  4. param = {
  5. 'wd':"ip"
  6. }
  7. headers = {
  8. 'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/71.0.3578.98 Safari/537.36'
  9. }
  10.                                       # 加与不加的区别
  11.                                       # 注意:免费的代理ip的协议头必须和请求url的协议头一致
  12. page_text = requests.get(url=url,params=param,headers=headers,proxies={'https':'139.59.80.140:3128'}).text
  13. with open('./ip.html','w',encoding='utf-8') as fp:
  14. fp.write(page_text)

(四)requests模块的cookies和代理操作的更多相关文章

  1. requests模块的cookie和代理操作

    一.基于requests模块的cookie操作 引言:有些时候,我们在使用爬虫程序去爬取一些用户相关信息的数据(爬取张三“人人网”个人主页数据)时,如果使用之前requests模块常规操作时,往往达不 ...

  2. 爬虫开发5.requests模块的cookie和代理操作

    代理和cookie操作 一.基于requests模块的cookie操作 引言:有些时候,我们在使用爬虫程序去爬取一些用户相关信息的数据(爬取张三“人人网”个人主页数据)时,如果使用之前requests ...

  3. 25-3 requests模块的cookie和代理操作

    一.基于requests模块的cookie操作 引言:有些时候,我们在使用爬虫程序去爬取一些用户相关信息的数据(爬取张三“人人网”个人主页数据)时,如果使用之前requests模块常规操作时,往往达不 ...

  4. python3使用requests模块完成get/post/代理/自定义header/自定义Cookie

    一.背景说明 http请求的难易对一门语言来说是很重要的而且是越来越重要,但对于python一是urllib一些写法不太符合人的思维习惯文档也相当难看,二是在python2.x和python3.x中写 ...

  5. 爬虫--requests模块高级(代理和cookie操作)

    代理和cookie操作 一.基于requests模块的cookie操作 引言:有些时候,我们在使用爬虫程序去爬取一些用户相关信息的数据(爬取张三“人人网”个人主页数据)时,如果使用之前requests ...

  6. python网络爬虫之二requests模块

    requests http请求库 requests是基于python内置的urllib3来编写的,它比urllib更加方便,特别是在添加headers, post请求,以及cookies的设置上,处理 ...

  7. 爬虫模块之requests模块

    一 模块的下载安装 pip install requests 二 爬虫的介绍 什么是爬虫:就是模拟浏览器发送请求:保存到本地:提取有用的数据:保存到数据库 爬虫的价值:获取有用的数据,保存到数据库 爬 ...

  8. 【python爬虫】requests模块

    文档:从 pythoneer 到 pythonista 的100个模块 链接:http://note.youdao.com/noteshare?id=2b95bb3651c21af80ca1936f8 ...

  9. 爬虫(四)requests模块1

    引入 Requests 唯一的一个非转基因的 Python HTTP 库,人类可以安全享用. 警告:非专业使用其他 HTTP 库会导致危险的副作用,包括:安全缺陷症.冗余代码症.重新发明轮子症.啃文档 ...

随机推荐

  1. C# 增加时间的三个方法

    第一个是使用方法形式的实例方法: incrementer.CountedADozen += IncrementDozensCount;  //方法引用形式 第二个是使用方法形式的静态方法: incre ...

  2. java基础多线程

    线程的创建 方式1:继承Java.lang.Thread类,并覆盖run() 方法 package com.demo.Thread; public class ThreadDemo01 extends ...

  3. js网页拉起支付宝支付

    js网页唤起支付宝进行支付 在做uni-app项目中,打包成 ios App的时候,为了绕过苹果支付的审核,所以用的 webview 加载支付宝的网页支付,进行付款 具体实现流程: 前端通过 url ...

  4. JavaScript函数用法

    本文我们来学习下js函数的一些用法. 上图的要点为: 1.函数具有属性,如foo.length和foo.name. 2.arguments是类数组,arguments.length为实参的数目. 3. ...

  5. 洛谷 P1094 纪念品分类

    刚开始看到这题就确定这题最好先要排序 第一个想法是排好序后先让第一个和从倒数第一个开始相加和如果就  <= w,那么用n除以2或者再加一得出答案,然后发现随便 当w = 110  n = 5序列 ...

  6. 一种新的python局部调试手法

    我们都知道,python里面可以用pdb来调试代码.但是pdb往往不大好用.有时候调试代码往往在多重条件里面,直接用pdb需要下条件断点,设定复杂的条件. 一个简单的办法就是这么干. __import ...

  7. MyEclipse插件github安装使用

    MyEclipse插件github安装使用   网络上的介绍一堆堆的,但是自己尝试了下,发现问题很多,就动手做个教程. 大纲 1.git客户端安装 2.ssh配置 3.egit安装配置 4.参考资料 ...

  8. C# 创建Windows Service(Windows服务)程序

    本文介绍了如何用C#创建.安装.启动.监控.卸载简单的Windows Service 的内容步骤和注意事项. 一.创建一个Windows Service 1)创建Windows Service项目 2 ...

  9. texlive 安装

    texlive 可以从下面两个网址下载 https://mirrors.tuna.tsinghua.edu.cn/CTAN/systems/texlive/Images/ https://mirror ...

  10. Unity Scene视图下 输出物体坐标等信息

    using UnityEditor; using UnityEngine; [CustomEditor(typeof(GameObject))] public class MyEditor : Edi ...