如何设计搭建一个社工库 从初起设计一个社工库,到现在的Beta,前前后后零零整整花了不下一个月的时间,林林总总记录下来,留给需要之人 泄露数据库格式不一,长相奇葩,因需将用户名.密码.邮箱.哈希等信息按表分列入库,故整理数据是很耗时间的一步 整体架构 选择了Debian x64+Mysql+Mysqlcft+Sphinx+Nginx+PHP 轻量的sqlite数据库,但查询速度及空间消耗过大,对请求时sqlite处理效率较差 mangodb,但mangodb在分布计算中有更好的优势而在社工库搭建…
社会工程学(Social Engineering)简称社工,其通过分析攻击对象的心理弱点,利用人性的本能反应,以及任何好奇心,贪婪等心理特征进行的,使用诸如假冒,欺骗,引诱等多种手段来达成攻击目标的一种手段,社会工程学的应用领域非常之广泛,而很多黑客也会将社工运用到渗透的方方面面,社工也被称为没有技术,却比技术更强大的渗透方式,正所谓 "攻城为下,攻心为上" 这句话用在社工上面是最恰当不过的啦. 接下来将介绍一个工具,社会工程工具包(SEToolkit)工具,该工具由 David Ke…
原创 ziwen@beebeeto 转载请保留本行 个人感觉 国外的安全方面对社工的了解和防范并不是很好 即使他们使用社工的时间比我们要长很多 比如 他们的visa在pos机上使用是不需要密码的 而且经过验证的商家只需要你的VISA卡号就可以盗刷你的钱 连刷卡都不需要 前一阵子在TDbank办了一张储蓄卡 仔细观察他们前台人员在和总部交流查询卡的信息或其他信息时候是采用的这种过程 使用办公电话打电话---告诉接线员自己的工作号码---接线员验证---告诉他你想查询什么就可以了 那么我就趁机记下了…
大数据平台搭建(hadoop+spark) 一.基本信息 1. 服务器基本信息 主机名 ip地址 安装服务 spark-master 172.16.200.81 jdk.hadoop.spark.scala spark-slave01 172.16.200.82 jdk.hadoop.spark spark-slave02 172.16.200.83 jdk.hadoop.spark spark-slave03 172.16.200.84 jdk.hadoop.spark 2. 软件基本信息 软…
在windows中使用,输入有关信息查询社工库,本来是网页版的,我把ajax请求提取出来.粗略的封装下,挺好玩. #coding:utf8 import urllib2,urllib from BeautifulSoup import BeautifulSoup queryword=raw_input(u"输入查询的字符串:\n".encode('gbk')) def f(queryword): q=lambda x:urllib.quote(x.decode('gbk').encod…
0×00前言 何为社工?社工是一种通过利用受害者心理弱点,如本能反应.好奇心.同情心.信任.贪婪等进行诸如欺骗.盗取.控制等非法手段的一种攻击方式.在无线安全中也可以利用社工做到许多非法操作.下面举几个利用社工盗取wpa2密码的例子: 0×01 移动存储攻击 某宝小容量u盘,在u盘中存放一个bat批处理文件,并命名为诱使人点开的标题,如:windows电脑优化.私人照片等等.其实bat文件的内容是这个: @echo off >nul 2>&1 "%SYSTEMROOT%\sy…
用Python实现一个大数据搜索引擎 搜索是大数据领域里常见的需求.Splunk和ELK分别是该领域在非开源和开源领域里的领导者.本文利用很少的Python代码实现了一个基本的数据搜索功能,试图让大家理解大数据搜索的基本原理. 布隆过滤器 (Bloom Filter) 第一步我们先要实现一个布隆过滤器. 布隆过滤器是大数据领域的一个常见算法,它的目的是过滤掉那些不是目标的元素.也就是说如果一个要搜索的词并不存在与我的数据中,那么它可以以很快的速度返回目标不存在. 让我们看看以下布隆过滤器的代码:…
首先看到的是 由于之前知道有bugku的百度吧   并且这个是一个社工题所以可以试一下这个百度吧 进入百度吧然后会见到 这句话的意思是要我们登录这个账号 但是我们只有账号没有密码  如果爆破的话很有可能爆破不开 所以我们再重新看一下 题目然后 我们看到了一个关键词“弱口令” 然后我们去百度弱口令top100 然后会发现弱口令 弱口令网站是:https://blog.51cto.com/10907603/2139653 然后一个个试一下这些弱口令 然后发现第二个 就是密码 然后登录 进入邮箱 应该…
最近bugku的web和杂项刷了多半,突然心血来潮想试试社工题,bugku的社工题比较基础,而且题量不多,和大家分享一下writeup. 1.密码 根据提示,多猜几次密码就对了,然后得到flag. 2.信息查找 直接百度,发现了那个新闻,找到群号,提交flag 3.简单个人信息搜集 将压缩包下载下来,打开,发现有密码,而且也没有任何提示,凭空也猜不出来. 没办法,网上找了个writeup,发现居然是zip伪加密,没听说过~~ 百度了一下伪加密,涨姿势了. 使用winhex打开压缩文件找到pk头,…
Bugku CTF练习题---社工---信息查找 flag:KEY{462713425} 解题步骤: 1.观察题目,思考题目内容,了解答案是群号 2.这里涉及到好多的信息,首先有网址,第二个是今日头条,以此分析,应该进入到今日头条进行搜索 3.打开第一个网页,黑客爆出联系方式 4.把群号按照正确格式填入,提交完成…
Bugku CTF练习题---社工---密码 flag:KEY{zs19970315} 解题步骤: 1.观察题目,思考题目要求 2.发现其中有姓名和生日这两个信息.从社工角度出发,感觉可能是名字+生日,经过尝试得出答案,超级简单 例如: 1-zhangsan19970315 2-zhangsan970315 3-ZS19970315 4-zs19970315 3.经过尝试,符合上面第4个,提交答案,注意格式,完成…
大家一定不会多搜索引擎感到陌生,搜索引擎是互联网发展的最直接的产物,它可以帮助我们从海量的互联网资料中找到我们查询的内容,也是我们日常学习.工作和娱乐不可或缺的查询工具.之前本人也是经常使用Google和Baidu搜索,而对搜索引擎的知识架构没有一个整体的概念.前一阵子的实习,使我有机会全面的了解了搜索引擎,感觉还是蛮有意思.所以,即使在面临找工作的高压下,也一定要抽时间来总结和回顾一下学到的知识,以便以后查阅,如果能给其他人带来帮助,那最好不过了. 搜索引擎的标准定义:搜索引擎(Search…
10.7 Imagine a web server for a simplified search engine. This system has 100 machines to respond to search queries, which may then call out using processSearch(string query) to another cluster of machines to actually get the result. The machine whic…
https://github.com/xiaojiong/scanfile 演示站点: http://www.weigongkai.com/   7G数据 2s完成扫描 package scanfile /* #include <stdio.h> #include <stdlib.h> #include <string.h> int IndexStr(char *haystack, char *needle,unsigned int begin) { char *p =…
使用 | 命令 搜索语法 hostname: 搜索指定的主机或域名,例如 hostname:”google” port: 搜索指定的端口或服务,例如 port:”” country: 搜索指定的国家,例如 country:”CN” city: 搜索指定的城市,例如 city:”Hefei” org: 搜索指定的组织或公司,例如 org:”google” isp: 搜索指定的ISP供应商,例如 isp:”China Telecom” product: 搜索指定的操作系统/软件/平台,例如 prod…
搜索语法 title=”abc”   header=”abc”  body=”abc”  domain=”xx.com”  host=”.xx.cn”  port=”443”     ip=”1.1.1.1”  protocol=”https”  city=”Beijing”  region=”Zhejiang”  country=”CN”  cert=”xx.com”    高级搜索 title=”powered by” && title!=discuz title!=”powered…
1    什么是solr Solr 是Apache下的一个顶级开源项目,采用Java开发,它是基于Lucene的全文搜索服务器.Solr可以独立运行在Jetty.Tomcat等这些Servlet容器中. Solr提供了比Lucene更为丰富的查询语言,同时实现了可配置.可扩展,并对索引.搜索性能进行了优化. 使用Solr 进行创建索引和搜索索引的实现方法很简单,如下: * 创建索引:客户端(可以是浏览器可以是Java程序)用 POST 方法向 Solr 服务器发送一个描述 Field 及其内容的…
以前在IBM做后端开发时,也接触过关于缓存技术,当时给了n多文档来学习,后面由于其他紧急的项目,一直没有着手去仔细研究这个技术,即时后来做Commerce的时候,后台用了n多缓存技术,需要build index,甚至在category里面都用了缓存,其实一直不明白,为什么那么简单的数据都需要做缓存技术,在技术角度来说,肯定是能实现的,当category比较稳定的状态,确实用起来会比较快吧,其实,当数据小的时候,或者当没有大数据类型 text的时候,未必哪种技术就更优秀呢. 记录一下,之前我接触过…
摘要:世上有三类书籍:1.介绍知识,2.阐述理论,3.工具书:世间也存在两类知识:1.技术,2.思想.以下是我在部署ElasticSearch集群时的经验总结,它们大体属于第一类知识“techknowledge(技术)”.但其中也穿插一些我个人的理解.敬请指正.   关键词:ElasticSearch, 搜索引擎, 集群, 大数据, Solr, 大数据 三类书籍 和 两类知识:           书: [1]有一些书是对某一新知识领域的介绍,将此知识领域从头到尾.从内而外剖开了分析,吸收这些知…
最近依然还是有点小忙,只能挤点时间来学习点,先解决有没有的问题,再解决好不好的问题:) 本文将承接上文<使用node-mapnik生成openstreetmap-carto风格的瓦片>的内容,用较为健壮的方式发布openstreetmap数据和样式的瓦片服务,在文章最后还提供手动切瓦片缓存的方法. 一.部署瓦片服务环境 Node.js未来会怎样,很多人都在思考,但是它的生态系统实在太好了,这在一个.NETer眼里简直就是无穷尽的宝藏啊! 今要使用的就是Node.js平台上一个运用node-ma…
本系列文章主要阐述大数据计算平台相关框架的搭建,包括如下内容: 基础环境安装 zookeeper集群的搭建 kafka集群的搭建 hadoop/hbase集群的搭建 spark集群的搭建 flink集群的搭建 elasticsearch集群的搭建 alluxio集群的搭建 1.zookeeper简介 Zookeeper是一个分布式的.开源的分布式应用协调服务,它暴露了一组简单的基础原件,分布式应用可以在这些原件之上实现更高级别的服务,主要使用场景和功能如下: Naming service Con…
本系列文章主要阐述大数据计算平台相关框架的搭建,包括如下内容: 基础环境安装 zookeeper集群的搭建 kafka集群的搭建 hadoop/hbase集群的搭建 spark集群的搭建 flink集群的搭建 elasticsearch集群的搭建 alluxio集群的搭建 1.kafak简介 Kafka是一个分布式.分区的.多副本的.多订阅者的消息队列,以高吞吐量著称,主要用于实时数据的传输和处理,总体架构如下 更多内容请阅读官网 http://kafka.apache.org/document…
前言 本文将使用一个NuGet公开的组件技术来实现一个ModBus TCP的服务器端数据引擎,方便的实现接收来自各种设备的数据.并且该服务器模拟真实的设备,包含了数据池功能,可以接受来自任何支持Modbus tcp的客户端进行读写数据.C#实现的客户端类请参考下面这篇文章:http://www.cnblogs.com/dathlin/p/7885368.html  可以进行一些客户端服务器的联合调试. nuget地址:https://www.nuget.org/packages/HslCommu…
搜索是大数据领域里常见的需求.Splunk和ELK分别是该领域在非开源和开源领域里的领导者.本文利用很少的Python代码实现了一个基本的数据搜索功能,试图让大家理解大数据搜索的基本原理. 布隆过滤器 (Bloom Filter) 第一步我们先要实现一个布隆过滤器. 布隆过滤器是大数据领域的一个常见算法,它的目的是过滤掉那些不是目标的元素.也就是说如果一个要搜索的词并不存在与我的数据中,那么它可以以很快的速度返回目标不存在. 让我们看看以下布隆过滤器的代码:     1 2 3 4 5 6 7…
To construct big data distributed platform based on Hadoop is a common method. Hadoop comes fron Google File System  and is its open source realization. Here list the references for studying big data technology, especially on Hadoop. 基于Hadoop进行大数据分布式…
不多说,直接上干货! 同时,声明,我这里安装的vsftp,仅仅只为我的大数据着想,关于网上的复杂安装,那是服务和运维那块.我不多牵扯,也不多赘述. 一.CentOS系统里安装vsftp 第一步:使用yum命令安装vsftp [root@bigdatamaster hadoop]# yum -y install vsftpd 第二步:配置vsftpd文件 vi /etc/vsftpd/vsftpd.conf 第三步:配置 write_enable = YES ascii_upload_enable…