1:请在“运行”,即下面这个地方输入certmgr.msc并回车,打开证书管理. 打开后,请点击操作--查找证书,如下所示: 然后输入“fiddler”查找所有相关证书,如下所示: 可以看到,我们找到一个,您可能会找到多个,不要紧,有多少个删多少个,全删之后,这一步完成 2:再接下来,打开火狐浏览器,进入选项-高级-证书-查看证书,然后找以DO_NOT开头的关于Fiddler的证书,以字母排序的,所以你可以很快找到.找到多少个还是删除多少个, 特别注意,请如图中[个人.服务器.证书机构.其他]等…
Fiddler抓取HTTPS设置注意以下操作的前提是,手机已经能够连上Fiddler,这部分的配置过程简单就不赘述了,可参考:手机如何连接Fiddler . 如何继续配置让Fiddler抓取到HTTPS协议呢? (一)给fiddler安装certmaker插件 由于默认的证书不符合Android和iOS的证书要求,所以,需要下载 certmaker 插件,双击安装后,重启fiddler.注意这一步很重要,必须使用certmaker插件,不要使用默认的证书生成器,否则抓不到包. (备注:经验证,a…
这个问题可能是证书的问题,操作步骤如下:  Step 1:打开系统证书管理器certmgr.msc,点击操作–查找证书,然后输入fiddler查找所有相关证书,将查找出来的结果全部删除: Step 2:打开火狐浏览器,进入选项-高级-证书-查看证书,然后找以DO_NOT开头的关于Fiddler的证书,然后全部删除: Step 3:打开fiddler: Step 4:打开127.0.0.1:8888,下载FiddlerRoot certificate,或者用FiddlerCertMaker.exe…
burp导入证书后仍然抓不到https包 如果你是导入证书有问题,请参考此博客 http://blog.csdn.net/zyw_anquan/article/details/47904495 有一点需要注意一下: 博客中的http://burp直接访问是不行的,这里我通过127.0.0.1:8080访问到burp界面(先打开burp,设置好端口),点击CA Certificate导出证书. 导入证书成功之后仍有问题,有可能是在设置代理上出了问题. 以火狐为例 应注意将SSL代理勾选上,这个坑了…
关于FusionCharts图表宽度width的设置问题导致图表显示异常的解决办法 题设: 经常使用FusionCharts图表的朋友可能会遇到这个问题.就是在FusionCharts显示的时候有时候会显示出不完整的图表,现象是只显示标题,但是标题不居中,同时看不见图表,或者是只显示Y轴,而X轴的数据全部都重叠在Y轴上,完全无法看清.查看FLASH加载完成,并且FLASH右键菜单弹出正常.这个时候,如果页面刷新几下就正常了.或者页面前进,后退一下也会正常.如下图所示: 分析: 刚开始的时候以为是…
工作原理 先上个图 此图一目了然,可以看出fiddler在请求中所处的位置,我们就可以确定它能干些什么.   WinInet(“Windows Internet”)API帮助程序员使用三个常见的Internet协议, 这三个协议是用于World Wide Web万维网的超文本传输协议(HTTP:Hypertext Transfer Protocol).文件传输协议(FTP:File Transfer Protocol)和另一个称为Gopher的文件传输协议. WinInet函数的语法与常用的Wi…
在ios7中,UITableViewCell左侧会有默认15像素的空白.这时候,设置setSeparatorInset:UIEdgeInsetsZero 能将空白去掉. 但是在ios8中,设置setSeparatorInset:UIEdgeInsetsZero 已经不起作用了.下面是解决办法 首先在viewDidLoad方法加入以下代码: if ([self.tableView respondsToSelector:@selector(setSeparatorInset:)]) { [self.…
但是在ios8中,设置setSeparatorInset:UIEdgeInsetsZero 已经不起作用了.下面是解决办法: 首先在viewDidLoad方法加入以下代码: if(leftTable!.respondsToSelector("setLayoutMargins:")){      leftTable?.layoutMargins=UIEdgeInsetsZero } if(leftTable!.respondsToSelector("setSeparatorIn…
1.scrapy爬虫遇到一个问题,有时候会对一个网页重复爬取提取不同的数据,这时候会发现,后面的那个重复爬取scrapy直接终止了. 原因: scrapy 的request逻辑里面  dont_filter=False,也就是重复网页不爬取,需要修改下这个参数 classscrapy.http.Request(url[, callback, method='GET', headers, body, cookies, meta, encoding='utf-8', priority=0, dont…
今天遇到了一个奇葩问题,写HTML时有个select控件.通过设置option的selected="selected"竟然无效,可是在其它浏览器是能够的.问了一下Google大神,说要在select标签加上autocomplete="off",如: <select autocomplete="off">     <option>是</option>     <option selected="s…