第三百三十节,web爬虫讲解2—urllib库爬虫—实战爬取搜狗微信公众号—抓包软件安装Fiddler4讲解

封装模块

  1. #!/usr/bin/env python
  2. # -*- coding: utf-8 -*-
  3. import urllib
  4. from urllib import request
  5. import json
  6. import random
  7. import re
  8. import urllib.error
  9. def hq_html(hq_url):
  10. """
  11. hq_html()封装的爬虫函数,自动启用了用户代理和ip代理
  12. 接收一个参数url,要爬取页面的url,返回html源码
  13. """
  14. def yh_dl(): #创建用户代理池
  15. yhdl = [
  16. 'Mozilla/5.0 (Windows; U; Windows NT 6.1; en-us) AppleWebKit/534.50 (KHTML, like Gecko) Version/5.1 Safari/534.50',
  17. 'Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Trident/5.0',
  18. 'Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 6.0; Trident/4.0)',
  19. 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10.6; rv:2.0.1) Gecko/20100101 Firefox/4.0.1',
  20. 'Mozilla/5.0 (Windows NT 6.1; rv:2.0.1) Gecko/20100101 Firefox/4.0.1',
  21. 'Opera/9.80 (Macintosh; Intel Mac OS X 10.6.8; U; en) Presto/2.8.131 Version/11.11',
  22. 'Opera/9.80 (Windows NT 6.1; U; en) Presto/2.8.131 Version/11.11',
  23. 'Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; Maxthon 2.0)',
  24. 'Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; TencentTraveler 4.0)',
  25. 'Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1)',
  26. 'Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; The World)',
  27. 'Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; 360SE)',
  28. 'Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; Avant Browser)',
  29. 'Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1)',
  30. 'Mozilla/5.0 (iPhone; U; CPU iPhone OS 4_3_3 like Mac OS X; en-us) AppleWebKit/533.17.9 (KHTML, like Gecko) Version/5.0.2 Mobile/8J2 Safari/6533.18.5',
  31. 'User-Agent:Mozilla/5.0 (iPod; U; CPU iPhone OS 4_3_3 like Mac OS X; en-us) AppleWebKit/533.17.9 (KHTML, like Gecko) Version/5.0.2 Mobile/8J2 Safari/6533.18.5',
  32. 'Mozilla/5.0 (iPad; U; CPU OS 4_3_3 like Mac OS X; en-us) AppleWebKit/533.17.9 (KHTML, like Gecko) Version/5.0.2 Mobile/8J2 Safari/6533.18.5',
  33. 'Mozilla/5.0 (Linux; U; Android 2.3.7; en-us; Nexus One Build/FRF91) AppleWebKit/533.1 (KHTML, like Gecko) Version/4.0 Mobile Safari/533.1',
  34. 'Opera/9.80 (Android 2.3.4; Linux; Opera Mobi/build-1107180945; U; en-GB) Presto/2.8.149 Version/11.10',
  35. 'Mozilla/5.0 (Linux; U; Android 3.0; en-us; Xoom Build/HRI39) AppleWebKit/534.13 (KHTML, like Gecko) Version/4.0 Safari/534.13',
  36. 'Mozilla/5.0 (BlackBerry; U; BlackBerry 9800; en) AppleWebKit/534.1+ (KHTML, like Gecko) Version/6.0.0.337 Mobile Safari/534.1+',
  37. 'Mozilla/5.0 (compatible; MSIE 9.0; Windows Phone OS 7.5; Trident/5.0; IEMobile/9.0; HTC; Titan)',
  38. 'UCWEB7.0.2.37/28/999',
  39. 'NOKIA5700/ UCWEB7.0.2.37/28/999',
  40. 'Openwave/ UCWEB7.0.2.37/28/999',
  41. 'Mozilla/4.0 (compatible; MSIE 6.0; ) Opera/UCWEB7.0.2.37/28/999'
  42. ]
  43. thisua = random.choice(yhdl) #随机获取代理信息
  44. headers = ("User-Agent",thisua) #拼接报头信息
  45. opener = urllib.request.build_opener() #创建请求对象
  46. opener.addheaders=[headers] #添加报头到请求对象
  47. urllib.request.install_opener(opener) #将报头信息设置为全局,urlopen()方法请求时也会自动添加报头
  48.  
  49. def dai_li_ip(hq_url): #创建ip代理池
  50. url = "http://http-webapi.zhimaruanjian.com/getip?num=1&type=2&pro=&city=0&yys=0&port=11&time=1&ts=0&ys=0&cs=0&lb=1&sb=0&pb=4&mr=1"
  51. if url:
  52. data = urllib.request.urlopen(url).read().decode("utf-8")
  53. data2 = json.loads(data) # 将字符串还原它本来的数据类型
  54. # print(data2['data'][0])
  55. ip = str(data2['data'][0]['ip'])
  56. dkou = str(data2['data'][0]['port'])
  57. zh_ip = ip + ':' + dkou
  58. pat = "(\w*):\w*"
  59. rst = re.compile(pat).findall(hq_url) #正则匹配获取是http协议还是https协议
  60. rst2 = rst[0]
  61. proxy = urllib.request.ProxyHandler({rst2: zh_ip}) # 格式化IP,注意,第一个参数,请求目标可能是http或者https,对应设置
  62. opener = urllib.request.build_opener(proxy, urllib.request.HTTPHandler) # 初始化IP
  63. urllib.request.install_opener(opener) # 将代理IP设置成全局,当使用urlopen()请求时自动使用代理IP
  64. else:
  65. pass
  66.  
  67. #请求
  68. try:
  69. dai_li_ip(hq_url) #执行代理IP函数
  70. yh_dl() #执行用户代理池函数
  71.  
  72. data = urllib.request.urlopen(hq_url).read().decode("utf-8")
  73. return data
  74. except urllib.error.URLError as e: # 如果出现错误
  75. if hasattr(e, "code"): # 如果有错误代码
  76. # print(e.code) # 打印错误代码
  77. pass
  78. if hasattr(e, "reason"): # 如果有错误信息
  79. # print(e.reason) # 打印错误信息
  80. pass
  81.  
  82. # a = hq_html('http://www.baid.com/')
  83. # print(a)

实战爬取搜狗微信公众号

  1. #!/usr/bin/env python
  2. # -*- coding: utf-8 -*-
  3. import urllib.request
  4. import fzhpach
  5. import re
  6. #抓取搜狗微信公众号
  7. #http://weixin.sogou.com/weixin?type=1&query=php&page=1
  8. #type=1表示显示公众号
  9. #type=2表示抓取文章
  10. #query=关键词
  11. #page=页码
  12.  
  13. gjc = '火锅'
  14. gjc = urllib.request.quote(gjc) #将关键词转码成浏览器认识的字符,默认网站不能是中文
  15. url = 'http://weixin.sogou.com/weixin?type=1&query=%s&page=1' %(gjc)
  16. html = fzhpach.hq_html(url) #使用我们封装的爬虫模块
  17. pat = '微信号:<label name="em_weixinhao">(\w*)</label>'
  18. rst = re.compile(pat).findall(html) #正则获取公众号
  19. print(rst)
  20.  
  21. #返回
  22. #['cqhuoguo1', 'qkmjscj888', 'cdsbcdhs', 'zk4538111', 'lamanannv', 'ctm2813333', 'cslhg2016', 'gh_978a858b478f', 'CCLWL0431', 'yuhehaixian']

抓包教程

首先安装Fiddler4

软件界面说明

清除请求

设置抓包浏览器

这样设置好后,这个浏览器访问的网址就会在抓包软件里看到信息了

设置抓取https协议的网站

导出证书到桌面

将证书安装到浏览器

可以看到软件已经获取到https网站了

疑难问题解决:

有些可能已经按照流程在feiddler中设置好了https抓包,但死活抓不了

(1)首先,看看火狐浏览器的配置,是不是下方“为所有协议使用相同代理”的地方没有勾选上,如果是,请勾选上。

有一部分做到这一步应该能解决无法抓https的问题。如果还不行,请继续往下看。

一般这个时候,还不行,应该就是你的证书问题了,有些可能会问,我是按照正常流程导出并安装的证书,也会有问题?

对的,就是这么奇怪。

(2)接下来,请在下面这个地方输入certmgr.msc并回车,打开证书管理。

打开后如下所示:

请点击操作–查找证书,如下所示:

然后输入fiddler查找所有相关证书,如下所示:

可以看到,我们找到一个,您可能会找到多个,不要紧,有多少个删多少个,分别右键–删除这些证书,如下所示:

全删之后,这一步完成。

(3)再接下来,打开火狐浏览器,进入选项-高级-证书-查看证书,然后找以DO_NOT开头的关于Fiddler的证书,以字母排序的,所以你可以很快找到。如下所示,我们找到两个,不用多说,右键,然后全部依次删除。你可能找到一个或多个,反正找到多少个删多少个就行,另外,特别注意,请如图中【个人、服务器、证书机构、其他】等标签依次查找,以免遗漏,切记切记!

这些全删之后,这一步完成,现在证书已经全部清理了,进入下一步。

(4)下载 FiddlerCertMaker.exe,可以去官网找,如不想麻烦,直接下载我提供的,链接如下:

链接: https://pan.baidu.com/s/1bQBhxG 密码: cu85

下载了这个之后,直接打开,不管出现什么错误,直接忽略,直到出现如下界面为止:

然后点击确定,关掉它。

(5)有了证书之后,请重启Fiddler(关掉再开),重启之后,访问https的网站,比如淘宝首页,有可能成功了,但你也有可能会发现如下错误:

“你的连接并不安全” 等类似提示

见到这里,你应该开心,离成功近了。

(6)果断的,打开fiddler,“Tools–Fiddler Options–HTTPS”,然后把下图中同样的地方勾上(注意一致),然后点击actions,然后先点击Trust Root…,然后,再点击Export Root…,此时,导出成功的话,在桌面就有你的证书了。务必注意:这一步成功的话,把第(7)步跳过,不要做了,直接进入第(8)步,如失败,请继续第(7步)。

(7)务必注意:上一步成功的话,把这一步跳过,不要做了。如果,你在导出的时候出现:creation of the root certificate was not located等错误,不要慌。接下来在cmd命令行中进入Fiddler安装目录,比如我的是C盘,所以进入如下图所示Fiddler2目录,然后直接复制下方make那一行代码,然后直接cmd中运行,出现如下所示succeeded提示,出现这一步提示之后,再按步骤(6)的方法导出证书,就能成功了:

makecert.exe -r -ss my -n “CN=DO_NOT_TRUST_FiddlerRoot, O=DO_NOT_TRUST, OU=Created by http://www.fiddler2.com” -sky signature -eku 1.3.6.1.5.5.7.3.1 -h 1 -cy authority -a sha1 -m 120 -b 09/05/2012

(8)好,证书导入到桌面后,请打开火狐浏览器,然后进入选项-高级-证书-查看证书-导入-选择刚导出的桌面的证书-确定。

(9)随后,为了保险,Fiddler重启,火狐浏览器也重启一下,然后开始抓HTTPS的包,此时你会发现“你的连接并不安全” 等类似提示已经消失,并且已经能够抓包了。

第三百三十节,web爬虫讲解2—urllib库爬虫—实战爬取搜狗微信公众号—抓包软件安装Fiddler4讲解的更多相关文章

  1. 九 web爬虫讲解2—urllib库爬虫—实战爬取搜狗微信公众号—抓包软件安装Fiddler4讲解

    封装模块 #!/usr/bin/env python # -*- coding: utf-8 -*- import urllib from urllib import request import j ...

  2. 第三百二十九节,web爬虫讲解2—urllib库爬虫—ip代理—用户代理和ip代理结合应用

    第三百二十九节,web爬虫讲解2—urllib库爬虫—ip代理 使用IP代理 ProxyHandler()格式化IP,第一个参数,请求目标可能是http或者https,对应设置build_opener ...

  3. 第三百七十节,Python分布式爬虫打造搜索引擎Scrapy精讲—elasticsearch(搜索引擎)用Django实现搜索结果分页

    第三百七十节,Python分布式爬虫打造搜索引擎Scrapy精讲—elasticsearch(搜索引擎)用Django实现搜索结果分页 逻辑处理函数 计算搜索耗时 在开始搜索前:start_time ...

  4. 第三百六十节,Python分布式爬虫打造搜索引擎Scrapy精讲—elasticsearch(搜索引擎)的基本概念

    第三百六十节,Python分布式爬虫打造搜索引擎Scrapy精讲—elasticsearch(搜索引擎)的基本概念 elasticsearch的基本概念 1.集群:一个或者多个节点组织在一起 2.节点 ...

  5. 第三百五十节,Python分布式爬虫打造搜索引擎Scrapy精讲—selenium模块是一个python操作浏览器软件的一个模块,可以实现js动态网页请求

    第三百五十节,Python分布式爬虫打造搜索引擎Scrapy精讲—selenium模块是一个python操作浏览器软件的一个模块,可以实现js动态网页请求 selenium模块 selenium模块为 ...

  6. 第三百二十八节,web爬虫讲解2—urllib库爬虫—状态吗—异常处理—浏览器伪装技术、设置用户代理

    第三百二十八节,web爬虫讲解2—urllib库爬虫—状态吗—异常处理—浏览器伪装技术.设置用户代理 如果爬虫没有异常处理,那么爬行中一旦出现错误,程序将崩溃停止工作,有异常处理即使出现错误也能继续执 ...

  7. 第三百二十七节,web爬虫讲解2—urllib库爬虫—基础使用—超时设置—自动模拟http请求

    第三百二十七节,web爬虫讲解2—urllib库爬虫 利用python系统自带的urllib库写简单爬虫 urlopen()获取一个URL的html源码read()读出html源码内容decode(& ...

  8. 第三百八十节,Django+Xadmin打造上线标准的在线教育平台—将所有app下的models数据库表注册到xadmin后台管理

    第三百八十节,Django+Xadmin打造上线标准的在线教育平台—将所有app下的models数据库表注册到xadmin后台管理 将一个app下的models数据库表注册到xadmin后台管理 重点 ...

  9. 第三百二十节,Django框架,生成二维码

    第三百二十节,Django框架,生成二维码 用Python来生成二维码,需要qrcode模块,qrcode模块依赖Image 模块,所以首先安装这两个模块 生成二维码保存图片在本地 import qr ...

随机推荐

  1. dom4j: 生成XML时文本中回车换行无效

    属性文本中回车换行在输出时被dom4j自动去掉了. 解决办法: 将format.setTrimText(false); 即可.因为 createPrettyPrint()方法中有 format.set ...

  2. bitcoin双花

    https://en.bitcoin.it/wiki/Irreversible_Transactions https://www.reddit.com/r/Bitcoin/comments/2e7bf ...

  3. 使用PostgreSQL遇到的一个问题[column does not exist]字段不存在:

    表结构: 在我上面的表结构中,明明有一个叫做"fromdeviceId"的字段,但是查询的时候却提示找不到该字段: 仔细观察错误信息,发现,我的字段明明是有一个大写字母(fromd ...

  4. 【Linux】svn添加用户

    1. 找到svn安装路径  /svn/repositories/ (如果不知道,可以搜索 :find / -name svn或者是ps -ef | grep svn) 2.进入该目录的conf,其中包 ...

  5. python rabittmq 使用

    Reference: https://www.rabbitmq.com/tutorials/tutorial-three-python.html 1 "Hello World!" ...

  6. ORA-01403:no data found 解决办法

    原因:select a into b from table:当查询出来的a没有数据时,这个时候就会抛出这个异常:ORA-01403:no data found 解决方法: 先定义一个整形变量,coun ...

  7. 插入中国所有省和市的SQL语句--以后用

    需要做根据省市过滤查询的,不得已写入数据库,这个留着方便以后用. 首先创建两张表 drop database if exists BSM; create database BSM; use BSM; ...

  8. python 高级知识点

    1.切片:截取List,tuple指定范围内的值:>>L[0,3] 2.如果给定一个list或tuple,我们可以通过for循环来遍历这个list或tuple,这种遍历我们称为迭代(Ite ...

  9. [转]基于BootStrap 的城市三级联动

    原文地址:https://blog.csdn.net/peiyuanxin/article/details/51992384 HTML代码部分    <div class="form- ...

  10. [转]JAVA泛型通配符T,E,K,V区别,T以及Class<T>,Class<?>的区别

    原文地址:https://www.jianshu.com/p/95f349258afb 1. 先解释下泛型概念 泛型是Java SE 1.5的新特性,泛型的本质是参数化类型,也就是说所操作的数据类型被 ...