使用mitmf 来绕过HSTS站点抓取登陆明文 HSTS简介 HSTS是HTTP Strict Transport Security的缩写,即:"HTTP严格安全传输".当浏览器第一次访问一个HSTS站点,会跳转到https页面,并种植hsts,下次再访问此站时,只要HSTS 还在有效期中,浏览器就会响应一个 HTTP 307 头,在不经过网络请求直接本地强制http跳转到https.这样可以有效防止基于SSLStrip的中间人攻击,对于伪造的证书,会显示错误,并且不允许用户忽略警告.…
近来发现Ubuntu下一个很好用的web站点抓取工具webhttrack,能够将给定网址的站点抓取到本地的目录中,并实现离线浏览,很实用. 1.安装webhttrack ubuntu 16.04的官方源中就有该工具.$ sudo apt-get install webhttrack 2.启动webhttrack $ webhttrack该命令会启动浏览器,打开一个页面,引导用户一步一步配置要抓取站点相关的信息.如下图所示,将openstack官网上的安装指南站点全部抓取到本地一个目录中. 离线浏…
Internet Download Manager(简称IDM)是一款十分好用资源下载器,它的站点抓取功能不仅可以下载被过滤器指定所需文件,例如一个站点的所有图片,或者一个站点的所有音频,也可以下载站点的子集,映射整个站点脱机浏览. 站点抓取需要有一套预定义的方案设置,可以点击菜单栏上站点抓取图标,进行创建方案.具体设置方法具体可参考:IDM下载器亮点功能之一:站点抓取. 抓取方案仅需要四步向导即可完成,确定从何处下载文件.抓取器也会探测网页中需要过滤内容和要下载的文件.当方案创建完成之后,ID…
[转载,后续补上实践case] 有了 Docker,用 JavaScript 框架开发的 Web 站点也能很好地支持网络爬虫的内容抓取 [编者的话]Prerender 服务能够为网络爬虫提供预先渲染的动态页面内容,解决了用 JavaScript 框架构建的 Web 站点不支持爬虫抓取的问题.本文详细描述了一种解决方案,尤其是提供了集成 Prerender 服务的 Docker 容器镜像. 如果你正在使用 AngularJS 构建一个面向大众消费者的应用,你肯定希望用户能把它分享到社交媒体上.对于…
windows下有Mimikatz,现在linux下有了mimipenguin,国外安全研究员huntergregal发布了工具mimipenguin,一款Linux下的密码抓取神器,弥补了Linux下密码抓取的空缺. 编写思路来自流行的windows密码抓取神器mimikatz 详情通过转储过程和提取那些包含明文密码可能性很高的行(hang),充分利用内存中的明文凭证.通过检查/etc/shadow文件hash,内存中的hash和正则匹配去尝试计算出每个单词的概率要求root权限已支持(以下环…
在今年早些时候,FB就对Bash Bunny做了相关的报导.这款号称“世界上最先进的USB攻击工具”的Bash Bunny,是否真的像其所说的一样是款渗透神器呢?下面,我将通过实例演示如何利用Bash Bunny QuickCreds模块,获取到目标主机上的登陆凭据. 简介 很幸运,我得到了一个Bash Bunny的硅谷优惠码,并非常期待Bash Bunny的表现. 首先,对于那些不熟悉该类攻击的人,我强烈推荐你可以先去阅读下mubix的原始帖子. 配置 首先,我需要将payload加载到设备上…
0x00 Wireshark(前称Ethereal)是一个网络封包分析软件.网络封包分析软件的功能是撷取网络封包,并尽可能显示出最为详细的网络封包资料.Wireshark使用WinPCAP作为接口,直接与网卡进行数据报文交换. 我们可以利用arpspoof拦截转发同一网段下其他用户流量,再使用Wireshark来分析查看流量 配置环境: 攻击端:kali  靶机端:2003 xp 0x01 首先确保三台机在同一网段下…
IDM下载器的站点抓取功能,能够抓取网站上的图片.音频.视频.PDF.压缩包等等文件.更重要的是,能够实现批量抓取操作,省时省力.今天就来看一下,如何用IDM巧妙的批量抓取音效素材. 1.进入音效合辑界面,复制链接地址 打开搜狗浏览器,百度搜索"音效大全",选择一个音效网站,进入网页之后点击进入音效分类的合辑界面,即大量音效链接地址的目录界面.然后复制这个界面的链接地址. 图1:音效合辑页面 2.运行 "站点抓取"功能,抓取音效 此时回到IDM主界面,用鼠标左键单击…
工具准备 在开始之前,请确保 scrpay 正确安装,手头有一款简洁而强大的浏览器, 若是你有使用 postman 那就更好了.           Python   1 scrapy genspider zhihu 使用以上命令生成知乎爬虫,代码如下:           Python   1 2 3 4 5 6 7 8 9 10 11 # -*- coding: utf-8 -*- import scrapy     class ZhihuSpider(scrapy.Spider):    …
边学边写代码,记录下来.这段代码用于批量抓取主站下所有子网页中符合特定尺寸要求的的图片文件,支持中断. 原理很简单:使用BeautifulSoup4分析网页,获取网页<a/>和<img/>元素,对<a/>集合反复弹栈入栈,对<img/>集合进行筛选下载. 具体代码如下:import os import sys import time import urllib.request from urllib.parse import urljoin,urlparse…