cookie适用于抓取需要登录才能访问的页面网站

cookie和session机制

http协议为无连接协议,cookie: 存放在客户端浏览器,session: 存放在Web服务器

人人网登录案例

方法一:登录网站手动抓取Cookie

1、先登录成功1次,获取到携带登陆信息的Cookie

登录成功 - 个人主页(http://www.renren.com/971989504/profile) - F12抓包 - 刷新个人主页 - 找到主页的包(home)

  一般cookie都在all--> home 数据包中,

2、携带着cookie发请求

import requests

class RenRenLogin(object):
def __init__(self):
# url为需要登录才能正常访问的地址
self.url = 'http://www.renren.com/967469305/profile'
# headers中的cookie为登录成功后抓取到的cookie
self.headers = {
# 此处注意cookie,要自己抓取
"Cookie": "xxx",
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.169 Safari/537.36",
}

# 获取个人主页响应
def get_html(self):
html = requests.get(url=self.url,headers=self.headers,verify=False).text
print(html)
self.parse_html(html)

# 可获取并解析整个人人网内需要登录才能访问的地址
def parse_html(self,html):
pass

if __name__ == '__main__':
spider = RenRenLogin()
spider.get_html()

方法二:requests模块处理Cookie

requests模块提供了session类,来实现客户端和服务端的会话保持​

1、实例化session对象

session = requests.session()

2、让session对象发送get或者post请求

res = session.post(url=url,data=data,headers=headers)

res = session.get(url=url,headers=headers)​

3. 思路梳理

浏览器原理: 访问需要登录的页面会带着之前登录过的cookie

程序原理: 同样带着之前登录的cookie去访问 - 由session对象完成

1、实例化session对象

2、登录网站: session对象发送请求,登录对应网站,把cookie保存在session对象中

3、访问页面: session对象请求需要登录才能访问的页面,session能够自动携带之前的这个cookie,进行请求

具体步骤

1、寻找登录时POST的地址

在登陆界面查看网页源码,查看form表单,找action对应的地址: http://www.renren.com/PLogin.do

2、发送用户名和密码信息到POST的地址

* 用户名和密码信息以字典的方式发送

键 :<input>标签中name的值(email,password)

值 :真实的用户名和密码

post_data = {'email':'','password':''}

程序实现

1、先POST: 把用户名和密码信息POST到某个地址中

2、再GET: 正常请求去获取页面信息

import requests
from lxml import etree class RenrenSpider(object):
def __init__(self):
self.post_url = 'http://www.renren.com/PLogin.do'
self.get_url = 'http://www.renren.com/967469305/profile'
# email和password为<input>节点中name的属性值
self.form_data = {
'email': '******', # 用户名
'password': '*******'} # 密码
self.session = requests.session() # 实例化session会话保持对象
self.headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.169 Safari/537.36',
'Referer': 'http://www.renren.com/SysHome.do'} # 先post 再get
def get_html(self):
# 先POST,把用户名和密码信息POST到一个地址
self.session.post(url=self.post_url, data=self.form_data, headers=self.headers)
# 再session.get()个人主页
html = self.session.get(url=self.get_url, headers=self.headers).text
self.parse_html(html) def parse_html(self, html):
parse_html = etree.HTML(html)
r_list = parse_html.xpath('//li[@class="school"]/span/text()')
print(r_list) if __name__ == '__main__':
spider = RenrenSpider()
spider.get_html()

方法三

1、把抓取到的cookie处理为字典
2、使用requests.get()中的参数:cookies

import requests
from lxml import etree class RenrenLogin(object):
def __init__(self):
# url为需要登录才能正常访问的地址
self.url = 'http://www.renren.com/967469305/profile'
self.headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/76.0.3809.100 Safari/537.36'} # 将字符串cookie转为字典格式
def get_cookie_dict(self):
cookie_dict = {}
cookies = 'td_cookie=18446744073093166409; anonymid=jzc3yiknvd9kwr; depovince=GW; jebecookies=67976425-f482-44a7-9668-0469a6a14d16|||||; _r01_=1; JSESSIONID=abcp_jUgWA4RdcgwXqtYw; ick_login=f502b729-d6cb-4085-8d74-4308a0a8a17d; _de=4DBCFCC17D9E50C8C92BCDC45CC5C3B7; p=cae86d9f12c5a1ba30901ad3d6ac992f5; first_login_flag=1; ln_uact=13603263409; ln_hurl=http://hdn.xnimg.cn/photos/hdn221/20181101/1550/h_main_qz3H_61ec0009c3901986.jpg; t=6d191b90a0236cea74f99b9d88d3fbd25; societyguester=6d191b90a0236cea74f99b9d88d3fbd25; id=967469305; xnsid=6cbc5509; ver=7.0; loginfrom=null; jebe_key=bd6eb791-92b2-4141-b8ed-53d17551d830%7C2012cb2155debcd0710a4bf5a73220e8%7C1565838783310%7C1%7C1565838784555; jebe_key=bd6eb791-92b2-4141-b8ed-53d17551d830%7C2012cb2155debcd0710a4bf5a73220e8%7C1565838783310%7C1%7C1565838784558; wp_fold=0'
for kv in cookies.split('; '):
# kv: 'td_cookie=184xxx'
key = kv.split('=')[0]
value = kv.split('=')[1]
cookie_dict[key] = value return cookie_dict # 获取个人主页响应
def get_html(self):
# 获取cookies
cookies = self.get_cookie_dict()
print(cookies)
html = requests.get(url=self.url, headers=self.headers, cookies=cookies, ).text
self.parse_html(html) # 可获取并解析整个人人网内需要登录才能访问的地址
def parse_html(self, html):
parse_html = etree.HTML(html)
r_list = parse_html.xpath('//*[@id="operate_area"]/div[1]/ul/li[1]/span/text()')
print(r_list) if __name__ == '__main__':
spider = RenrenLogin()
spider.get_html()

爬虫——cookie模拟登陆的更多相关文章

  1. 使用ApiPost测试接口时需要先登录怎么办?利用Cookie模拟登陆!

    ApiPost简介: ApiPost是一个支持团队协作,并可直接生成文档的API调试.管理工具.它支持模拟POST.GET.PUT等常见请求,是后台接口开发者或前端.接口测试人员不可多得的工具 . 下 ...

  2. python3下scrapy爬虫(第六卷:利用cookie模拟登陆抓取个人中心页面)

    之前我们爬取的都是那些无需登录就要可以使用的网站但是当我们想爬取自己或他人的个人中心时就需要做登录,一般进入登录页面有两种 ,一个是独立页面登陆,另一个是弹窗,我们先不管验证码登陆的问题 ,现在试一下 ...

  3. selenium3.7+ python3 添加cookie模拟登陆

    一.背景介绍 最近做一个爬虫项目,用selenium调用浏览器去获取渲染后的源码,但是每次登陆都需要手机验证,这真的是头痛啊,这种验证方式不要想着去破解,还是老老实实用手机收验证码去吧!反正我是不知道 ...

  4. pytho简单爬虫_模拟登陆西电流量查询_实现一键查询自己的校园网流量

    闲来无事,由于校园内网络是限流量的,查询流量很是频繁,于是萌生了写一个本地脚本进行一键查询自己的剩余流量. 整个部分可以分为三个过程进行: 对登陆时http协议进行分析 利用python进行相关的模拟 ...

  5. 20170717_python爬虫之requests+cookie模拟登陆

    在成功登陆之前,失败了十几次.完全找不到是什么原因导致被网站判断cookie是无效的. 直到用了firefox的httpfox之后才发现cookie里还有一个ASP.NET_SessionId 这个字 ...

  6. 22.天眼查cookie模拟登陆采集数据

    通过账号登录获取cookies,模拟登录(前提有天眼查账号),会员账号可查看5000家,普通只是100家,同时也要设置一定的反爬措施以防账号被封.拿有权限的账号去获取cookies,去访问页面信息,不 ...

  7. 三种urllib实现网页下载,含cookie模拟登陆

    coding=UTF-8 import re import urllib.request, http.cookiejar, urllib.parse # # print('-------------- ...

  8. python 用cookie模拟登陆网站

    import re import requests def get_info(url): headers = { "Cookie" :"***************** ...

  9. 爬虫入门之scrapy模拟登陆(十四)

    注意:模拟登陆时,必须保证settings.py里的COOKIES_ENABLED(Cookies中间件) 处于开启状态 COOKIES_ENABLED = True或# COOKIES_ENABLE ...

随机推荐

  1. pyhthon字典练习题

    pyhthon字典练习题: 有如下集合: [11,22,33,44,55,66,77,88,99] 将所有大于55的值保存至第一个KEY值中,将所有小于55的值保存至第二个KEY值中.{"k ...

  2. coffeescript 函数 箭头表达式

    函数 do可以形成闭包,使方法作用域不受外部变化的影响. 隐式返回最后一个表达式的值 函数调用省略括号 用arguments数组访问传递给函数的所有对象(低可读性) @name为this.name的简 ...

  3. How to check all timestamps of a file

    A friend of mine she asked me how to check all timestamps of a file on an NTFS volume. She did not h ...

  4. Linux系统下减少LV(逻辑卷)容量

    查看文件系统现有 lv_test 容量,总计9.9G,已使用2% 命令 df -h 2 查看系统中的 PV 情况 命令:pvdisplay vg_test 下有两个 PV,分别为  /dev/sdb1 ...

  5. KD-tree 专题「Hide and Seek · 巧克力王国」

    Lockey的瞎理解 抄了一遍板子又水了俩题,感觉对KD-tree 稍稍理解了一点儿,唠叨一下(二维的KD-tree),如有错误请指出(Lockey 洗脸恭听) 普通平衡树维护的是一维的序列,但对于二 ...

  6. Ok-Http | Android 网络请求框架使用方式

    POST : package he3.sd.util; import com.parkingwang.okhttp3.LogInterceptor.LogInterceptor; import jav ...

  7. 案例实战:每日上亿请求量的电商系统,JVM年轻代垃圾回收参数如何优化?

    出自:http://1t.click/7TJ 目录: 案例背景引入 特殊的电商大促场景 抗住大促的瞬时压力需要几台机器? 大促高峰期订单系统的内存使用模型估算 内存到底该如何分配? 新生代垃圾回收优化 ...

  8. 让techempower帮你通讯服务框架的性能

    在编写服务应用框架的时候一般都需要进行性能测试,但自己测试毕竟资源受限所以很难做更高性能上的测试.其实GitHub上有一个项目可以让开发人员提交自己的框架服务代码然后进行一个标准测试:现在已经有上百个 ...

  9. 把Jar包加入windows系统服务

    之前在服务器上不一个Java服务时候,总是开着一堆黑框框,非常不雅,重点是极其容易误关,所以把可执行Jar文件加入Windows系统服务,看起来是个非常不错的选择!(实际上也确实是非常不错的选择) ! ...

  10. IBM实习工作(二)

    2019年秋招前夕再次到ibm项目组参加实习两周,这次主要负责的需求是建立牛奶数据池,在二级菜单建立对账单数据池,数据由Excel导入生成. 分析整个需求,主要分为以下几块: 1.牛奶数据池前台页面, ...