概述:

被冻信息搜集主要通过搜索引擎或者社交等方式对目标资产信息进行提取,通常包括IP查询,Whois查询,子域名搜集等。进行被动信息搜集时不与目标产生交互,可以在不接触到目标系统的情况下挖掘目标信息。

主要方法:DNS解析,子域名挖掘,邮件爬取等。

DNS解析:

1、概述:

DNS(Domain Name System,域名系统)是一种分布式网络目录服务,主要用于域名与IP地址的相互转换,能够使用户更方便地访问互联网,而不用去记住一长串数字(能够被机器直接读取的IP)。

2、IP查询:

IP查询是通过当前所获取的URL去查询对应IP地址的过程。可以利用Socket库函数中的gethostbyname()获取域名对应的IP值。

代码:

  1. import socket
  2.  
  3. ip = socket.gethostbyname('www.baidu.com')
  4. print(ip)

返回:

  1. 39.156.66.14

3、Whois查询:

Whois是用来查询域名的IP以及所有者信息的传输协议。Whois相当于一个数据库,用来查询域名是否已经被注册,以及注册域名的详细信息(如域名所有人,域名注册商等)。

Python中的python-whois模块可用于Whois查询。

代码:

  1. from whois import whois
  2.  
  3. data = whois('www.baidu.com')
  4. print(data)

返回:

  1. E:\python\python.exe "H:/code/Python Security/Day01/Whois查询.py"
  2. {
  3. "domain_name": [
  4. "BAIDU.COM",
  5. "baidu.com"
  6. ],
  7. "registrar": "MarkMonitor, Inc.",
  8. "whois_server": "whois.markmonitor.com",
  9. "referral_url": null,
  10. "updated_date": [
  11. "2020-12-09 04:04:41",
  12. "2021-04-07 12:52:21"
  13. ],
  14. "creation_date": [
  15. "1999-10-11 11:05:17",
  16. "1999-10-11 04:05:17"
  17. ],
  18. "expiration_date": [
  19. "2026-10-11 11:05:17",
  20. "2026-10-11 00:00:00"
  21. ],
  22. "name_servers": [
  23. "NS1.BAIDU.COM",
  24. "NS2.BAIDU.COM",
  25. "NS3.BAIDU.COM",
  26. "NS4.BAIDU.COM",
  27. "NS7.BAIDU.COM",
  28. "ns3.baidu.com",
  29. "ns2.baidu.com",
  30. "ns7.baidu.com",
  31. "ns1.baidu.com",
  32. "ns4.baidu.com"
  33. ],
  34. "status": [
  35. "clientDeleteProhibited https://icann.org/epp#clientDeleteProhibited",
  36. "clientTransferProhibited https://icann.org/epp#clientTransferProhibited",
  37. "clientUpdateProhibited https://icann.org/epp#clientUpdateProhibited",
  38. "serverDeleteProhibited https://icann.org/epp#serverDeleteProhibited",
  39. "serverTransferProhibited https://icann.org/epp#serverTransferProhibited",
  40. "serverUpdateProhibited https://icann.org/epp#serverUpdateProhibited",
  41. "clientUpdateProhibited (https://www.icann.org/epp#clientUpdateProhibited)",
  42. "clientTransferProhibited (https://www.icann.org/epp#clientTransferProhibited)",
  43. "clientDeleteProhibited (https://www.icann.org/epp#clientDeleteProhibited)",
  44. "serverUpdateProhibited (https://www.icann.org/epp#serverUpdateProhibited)",
  45. "serverTransferProhibited (https://www.icann.org/epp#serverTransferProhibited)",
  46. "serverDeleteProhibited (https://www.icann.org/epp#serverDeleteProhibited)"
  47. ],
  48. "emails": [
  49. "abusecomplaints@markmonitor.com",
  50. "whoisrequest@markmonitor.com"
  51. ],
  52. "dnssec": "unsigned",
  53. "name": null,
  54. "org": "Beijing Baidu Netcom Science Technology Co., Ltd.",
  55. "address": null,
  56. "city": null,
  57. "state": "Beijing",
  58. "zipcode": null,
  59. "country": "CN"
  60. }
  61.  
  62. Process finished with exit code 0

子域名挖掘:

1、概述:

域名可以分为顶级域名,一级域名,二级域名等。

子域名(subdomain)是顶级域名(一级域名或父域名)的下一级。

在测试过程中,测试目标主站时如果未发现任何相关漏洞,此时通常会考虑挖掘目标系统的子域名。

子域名挖掘方法有多种,例如,搜索引擎,子域名破解,字典查询等。

2、利用Python编写一个简单的子域名挖掘工具:

(以https://cn.bing.com/为例)

代码:

  1. # coding=gbk
  2. import requests
  3. from bs4 import BeautifulSoup
  4. from urllib.parse import urlparse
  5. import sys
  6.  
  7. def Bing_Search(site, pages):
  8. Subdomain = []
  9. # 以列表的形式存储子域名
  10. headers = {
  11. 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.90 Safari/537.36',
  12. 'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/avif,image/webp,image/apng,*/*;q=0.8,application/signed-exchange;v=b3;q=0.9',
  13. 'Referer': 'https://cn.bing.com/',
  14. 'Cookie': 'MUID=37FA745F1005602C21A27BB3117A61A3; SRCHD=AF=NOFORM; SRCHUID=V=2&GUID=DA7BDD699AFB4AEB8C68A0B4741EFA74&dmnchg=1; MUIDB=37FA745F1005602C21A27BB3117A61A3; ULC=P=9FD9|1:1&H=9FD9|1:1&T=9FD9|1:1; PPLState=1; ANON=A=CEC39B849DEE39838493AF96FFFFFFFF&E=1943&W=1; NAP=V=1.9&E=18e9&C=B8-HXGvKTE_2lQJ0I3OvbJcIE8caEa9H4f3XNrd3z07nnV3pAxmVJQ&W=1; _tarLang=default=en; _TTSS_IN=hist=WyJ6aC1IYW5zIiwiYXV0by1kZXRlY3QiXQ==; _TTSS_OUT=hist=WyJlbiJd; ABDEF=V=13&ABDV=13&MRB=1618913572156&MRNB=0; KievRPSSecAuth=FABSARRaTOJILtFsMkpLVWSG6AN6C/svRwNmAAAEgAAACPyKw8I/CYhDEAFiUHPfZQSWnp%2BMm43NyhmcUtEqcGeHpvygEOz6CPQIUrTCcE3VESTgWkhXpYVdYAKRL5u5EH0y3%2BmSTi5KxbOq5zlLxOf61W19jGuTQGjb3TZhsv5Wb58a2I8NBTwIh/cFFvuyqDM11s7xnw/ZZoqc9tNuD8ZG9Hi29RgIeOdoSL/Kzz5Lwb/cfSW6GbawOVtMcToRJr20K0C0zGzLhxA7gYH9CxajTo7w5kRx2/b/QjalnzUh7lvZCNrF5naagj10xHhZyHItlNtjNe3yqqLyLZmgNrzT8o7QWfpJWHqAak4AFt3nY9R0NGLHM6UxPC8ph9hEaYbWtIsY7JNvVYFwbDk6o4oqu33kHeyqW/JTVhQACnpn2v74dZzvk4xRp%2BpcQIoRIzI%3D; _U=1ll1JNraa8gnrWOg3NTDw_PUniDnXYIikDzB-R_hVgutXRRVFcrnaPKxVBXA1w-dBZJsJJNfk6vGHSqJtUsLXvZswsd5A1xFvQ_V_nUInstIfDUs7q7FyY2DmvDRlfMIqbgdt-KEqazoz-r_TLWScg4_WDNFXRwg6Ga8k2cRyOTfGNkon7kVCJ7IoPDTAdqdP; WLID=kQRArdi2czxUqvURk62VUr88Lu/DLn6bFfcwTmB8EoKbi3UZYvhKiOCdmPbBTs0PQ3jO42l3O5qWZgTY4FNT8j837l8J9jp0NwVh2ytFKZ4=; _EDGE_S=SID=01830E382F4863360B291E1B2E6662C7; SRCHS=PC=ATMM; WLS=C=3d04cfe82d8de394&N=%e5%81%a5; SRCHUSR=DOB=20210319&T=1619277515000&TPC=1619267174000&POEX=W; SNRHOP=I=&TS=; _SS=PC=ATMM&SID=01830E382F4863360B291E1B2E6662C7&bIm=656; ipv6=hit=1619281118251&t=4; SRCHHPGUSR=SRCHLANGV2=zh-Hans&BRW=W&BRH=S&CW=1462&CH=320&DPR=1.25&UTC=480&DM=0&WTS=63754766339&HV=1619277524&BZA=0&TH=ThAb5&NEWWND=1&NRSLT=-1&LSL=0&SRCHLANG=&AS=1&NNT=1&HAP=0&VSRO=0'
  15. }
  16. for i in range(1, int(pages)+1):
  17. url = "https://cn.bing.com/search?q=site%3a" + site + "&go=Search&qs=ds&first=" + str((int(i)-1)*10) + "&FORM=PERE"
  18. html = requests.get(url, headers=headers)
  19. soup = BeautifulSoup(html.content, 'html.parser')
  20. job_bt = soup.findAll('h2')
  21. for i in job_bt:
  22. link = i.a.get('href')
  23. domain = str(urlparse(link).scheme + "://" + urlparse(link).netloc)
  24. if domain in Subdomain:
  25. pass
  26. else:
  27. Subdomain.append(domain)
  28. print(domain)
  29.  
  30. if __name__ == '__main__':
  31. if len(sys.argv) == 3:
  32. site = sys.argv[1]
  33. page = sys.argv[2]
  34. else:
  35. print("usge: %s baidu.com 10" % sys.argv[0])
  36. # 输出帮助信息
  37. sys.exit(-1)
  38. Subdomain = Bing_Search('www.baidu.com', 15)

返回:

邮件爬取:

1、概述:

在针对目标系统进行渗透的过程中,如果目标服务器安全性很高,通过服务器很难获取目标权限时,通常会采用社工的方式对目标服务进行进一步攻击。

针对搜索界面的相关邮件信息进行爬取、处理等操作之后。利用获得的邮箱账号批量发送钓鱼邮件,诱骗、欺诈目标用户或管理员进行账号登录或点击执行,进而获取目标系统的其权限。

该邮件采集工具所用到的相关库函数如下:

  1. import sys
  2. import getopt
  3. import requests
  4. from bs4 import BeautifulSoup
  5. import re

2、过程:

:在程序的起始部分,当执行过程中没有发生异常时,则执行定义的start()函数。

通过sys.argv[ ] 实现外部指令的接收。其中,sys.argv[0] 代表代码本身的文件路径,sys.argv[1:] 表示从第一个命令行参数到输入的最后一个命令行参数,存储形式为list。

代码如下:

  1. if __name__ == '__main__':
  2. # 定义异常
  3. try:
  4. start(sys.argv[1: ])
  5. except:
  6. print("interrupted by user, killing all threads ... ")

:编写命令行参数处理功能。此处主要应用  getopt.getopt()函数处理命令行参数,该函数目前有短选项和长选项两种格式。

短选项格式为“ - ”加上单个字母选项;

长选项格式为“ -- ”加上一个单词选项。

opts为一个两元组列表,每个元素形式为“(选项串,附加参数)”。当没有附加参数时,则为空串。之后通过for语句循环输出opts列表中的数值并赋值给自定义的变量。

代码如下:

  1. def start(argv):
  2. url = ""
  3. pages = ""
  4. if len(sys.argv) < 2:
  5. print("-h 帮助信息;\n")
  6. sys.exit()
  7. # 定义异常处理
  8. try:
  9. banner()
  10. opts, args = getopt.getopt(argv, "-u:-p:-h")
  11. except:
  12. print('Error an argument')
  13. sys.exit()
  14. for opt, arg in opts:
  15. if opt == "-u":
  16. url = arg
  17. elif opt == "-p":
  18. pages = arg
  19. elif opt == "-h":
  20. print(usage())
  21. launcher(url, pages)

:输出帮助信息,增加代码工具的可读性和易用性。为了使输出的信息更加美观简洁,可以通过转义字符设置输出字体颜色,从而实现所需效果。

开头部分包含三个参数:显示方式,前景色,背景色。这三个参数是可选的,可以只写其中一个参数。结尾可以省略,但为了书写规范,建议以 “\033[0m” 结尾。

代码如下:

  1. print('\033[0:30;41m 3cH0 - Nu1L \033[0m')
  2. print('\033[0:30;42m 3cH0 - Nu1L \033[0m')
  3. print('\033[0:30;43m 3cH0 - Nu1L \033[0m')
  4. print('\033[0:30;44m 3cH0 - Nu1L \033[0m')
  1. # banner信息
  2. def banner():
  3. print('\033[1:34m ################################ \033[0m\n')
  4. print('\033[1:34m 3cH0 - Nu1L \033[0m\n')
  5. print('\033[1:34m ################################ \033[0m\n')
  1. # 使用规则
  2. def usage():
  3. print('-h: --help 帮助;')
  4. print('-u: --url 域名;')
  5. print('-p --pages 页数;')
  6. print('eg: python -u "www.baidu.com" -p 100' + '\n')
  7. sys.exit()

:确定搜索邮件的关键字,并调用bing_search()和baidu_search()两个函数,返回Bing与百度两大搜索引擎的查询结果。由获取到的结果进行列表合并,去重之后,循环输出。

代码如下:

  1. # 漏洞回调函数
  2. def launcher(url, pages):
  3. email_num = []
  4. key_words = ['email', 'mail', 'mailbox', '邮件', '邮箱', 'postbox']
  5. for page in range(1, int(pages)+1):
  6. for key_word in key_words:
  7. bing_emails = bing_search(url, page, key_word)
  8. baidu_emails = baidu_search(url, page, key_word)
  9. sum_emails = bing_emails + baidu_emails
  10. for email in sum_emails:
  11. if email in email_num:
  12. pass
  13. else:
  14. print(email)
  15. with open('data.txt', 'a+')as f:
  16. f.write(email + '\n')
  17. email_num.append(email)

:用Bing搜索引擎进行邮件爬取。Bing引擎具有反爬防护,会通过限定referer、cookie等信息来确定是否网页爬取操作。

可以通过指定referer与requeses.session()函数自动获取cookie信息,绕过Bing搜索引擎的反爬防护。

代码如下:

  1. # Bing_search
  2. def bing_search(url, page, key_word):
  3. referer = "http://cn.bing.com/search?q=email+site%3abaidu.com&sp=-1&pq=emailsite%3abaidu.com&first=1&FORM=PERE1"
  4. conn = requests.session()
  5. bing_url = "http://cn.bing.com/search?q=" + key_word + "+site%3a" + url + "&qa=n&sp=-1&pq=" + key_word + "site%3a" + url +"&first=" + str((page-1)*10) + "&FORM=PERE1"
  6. conn.get('http://cn.bing.com', headers=headers(referer))
  7. r = conn.get(bing_url, stream=True, headers=headers(referer), timeout=8)
  8. emails = search_email(r.text)
  9. return emails

:用百度搜索引擎进行邮件爬取。百度搜索引擎同样设定了反爬防护,相对Bing来说,百度不仅对referer和cookie进行校验,还同时在页面中通过JavaScript语句进行动态请求链接,从而导致不能动态获取页面中的信息。

可以通过对链接的提取,在进行request请求,从而绕过反爬设置。

代码如下:

  1. # Baidu_search
  2. def baidu_search(url, page, key_word):
  3. email_list = []
  4. emails = []
  5. referer = "https://www.baidu.com/s?wd=email+site%3Abaidu.com&pn=1"
  6. baidu_url = "https://www.baidu.com/s?wd=" + key_word + "+site%3A" + url + "&pn=" + str((page-1)*10)
  7. conn = requests.session()
  8. conn.get(baidu_url, headers=headers(referer))
  9. r = conn.get(baidu_url, headers=headers(referer))
  10. soup = BeautifulSoup(r.text, 'lxml')
  11. tagh3 = soup.find_all('h3')
  12. for h3 in tagh3:
  13. href = h3.find('a').get('href')
  14. try:
  15. r = requests.get(href, headers=headers(referer))
  16. emails = search_email(r.text)
  17. except Exception as e:
  18. pass
  19. for email in emails:
  20. email_list.append(email)
  21. return email_list

:通过正则表达式获取邮箱号码。此处也可以换成目标企业邮箱的正则表达式。

代码如下:

  1. # search_email
  2. def search_email(html):
  3. emails = re.findall(r"[a-z0-9\.\-+_]+@[a-z0-9\.\-+_]+\.[a-z]" + html, re.I)
  4. return emails
  1. # headers(referer)
  2. def headers(referer):
  3. headers = {
  4. 'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.90 Safari/537.36',
  5. 'Accept': 'application/json, text/javascript, */*; q=0.01',
  6. 'Accept-Language': 'zh-CN,zh;q=0.9,en;q=0.8',
  7. 'Accept-Encoding': 'gzip, deflate, br',
  8. 'Referer': referer
  9. }
  10. return headers

3、完整代码:

  1. # coding=gbk
  2. import sys
  3. import getopt
  4. import requests
  5. from bs4 import BeautifulSoup
  6. import re
  7.  
  8. # 主函数,传入用户输入的参数
  9. def start(argv):
  10. url = ""
  11. pages = ""
  12. if len(sys.argv) < 2:
  13. print("-h 帮助信息;\n")
  14. sys.exit()
  15. # 定义异常处理
  16. try:
  17. banner()
  18. opts, args = getopt.getopt(argv, "-u:-p:-h")
  19. except:
  20. print('Error an argument')
  21. sys.exit()
  22. for opt, arg in opts:
  23. if opt == "-u":
  24. url = arg
  25. elif opt == "-p":
  26. pages = arg
  27. elif opt == "-h":
  28. print(usage())
  29. launcher(url, pages)
  30.  
  31. # banner信息
  32. def banner():
  33. print('\033[1:34m ################################ \033[0m\n')
  34. print('\033[1:34m 3cH0 - Nu1L \033[0m\n')
  35. print('\033[1:34m ################################ \033[0m\n')
  36.  
  37. # 使用规则
  38. def usage():
  39. print('-h: --help 帮助;')
  40. print('-u: --url 域名;')
  41. print('-p --pages 页数;')
  42. print('eg: python -u "www.baidu.com" -p 100' + '\n')
  43. sys.exit()
  44.  
  45. # 漏洞回调函数
  46. def launcher(url, pages):
  47. email_num = []
  48. key_words = ['email', 'mail', 'mailbox', '邮件', '邮箱', 'postbox']
  49. for page in range(1, int(pages)+1):
  50. for key_word in key_words:
  51. bing_emails = bing_search(url, page, key_word)
  52. baidu_emails = baidu_search(url, page, key_word)
  53. sum_emails = bing_emails + baidu_emails
  54. for email in sum_emails:
  55. if email in email_num:
  56. pass
  57. else:
  58. print(email)
  59. with open('data.txt', 'a+')as f:
  60. f.write(email + '\n')
  61. email_num.append(email)
  62.  
  63. # Bing_search
  64. def bing_search(url, page, key_word):
  65. referer = "http://cn.bing.com/search?q=email+site%3abaidu.com&sp=-1&pq=emailsite%3abaidu.com&first=1&FORM=PERE1"
  66. conn = requests.session()
  67. bing_url = "http://cn.bing.com/search?q=" + key_word + "+site%3a" + url + "&qa=n&sp=-1&pq=" + key_word + "site%3a" + url +"&first=" + str((page-1)*10) + "&FORM=PERE1"
  68. conn.get('http://cn.bing.com', headers=headers(referer))
  69. r = conn.get(bing_url, stream=True, headers=headers(referer), timeout=8)
  70. emails = search_email(r.text)
  71. return emails
  72.  
  73. # Baidu_search
  74. def baidu_search(url, page, key_word):
  75. email_list = []
  76. emails = []
  77. referer = "https://www.baidu.com/s?wd=email+site%3Abaidu.com&pn=1"
  78. baidu_url = "https://www.baidu.com/s?wd=" + key_word + "+site%3A" + url + "&pn=" + str((page-1)*10)
  79. conn = requests.session()
  80. conn.get(baidu_url, headers=headers(referer))
  81. r = conn.get(baidu_url, headers=headers(referer))
  82. soup = BeautifulSoup(r.text, 'lxml')
  83. tagh3 = soup.find_all('h3')
  84. for h3 in tagh3:
  85. href = h3.find('a').get('href')
  86. try:
  87. r = requests.get(href, headers=headers(referer))
  88. emails = search_email(r.text)
  89. except Exception as e:
  90. pass
  91. for email in emails:
  92. email_list.append(email)
  93. return email_list
  94.  
  95. # search_email
  96. def search_email(html):
  97. emails = re.findall(r"[a-z0-9\.\-+_]+@[a-z0-9\.\-+_]+\.[a-z]" + html, re.I)
  98. return emails
  99.  
  100. # headers(referer)
  101. def headers(referer):
  102. headers = {
  103. 'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.90 Safari/537.36',
  104. 'Accept': 'application/json, text/javascript, */*; q=0.01',
  105. 'Accept-Language': 'zh-CN,zh;q=0.9,en;q=0.8',
  106. 'Accept-Encoding': 'gzip, deflate, br',
  107. 'Referer': referer
  108. }
  109. return headers
  110.  
  111. if __name__ == '__main__':
  112. # 定义异常
  113. try:
  114. start(sys.argv[1: ])
  115. except:
  116. print("interrupted by user, killing all threads ... ")

参考:

《Python安全攻防-渗透测试实战指南》——By MS08067 Team

被动信息搜集 - Python安全攻防的更多相关文章

  1. 20155324《网络对抗》Exp06 信息搜集与漏洞扫描

    20155324<网络对抗>Exp06 信息搜集与漏洞扫描 实践内容 各种搜索技巧的应用 DNS IP注册信息的查询 基本的扫描技术:主机发现.端口扫描.OS及服务版本探测.具体服务的查点 ...

  2. 2018-2019-2 20165312《网络攻防技术》Exp6 信息搜集与漏洞扫描

    2018-2019-2 20165312<网络攻防技术>Exp6 信息搜集与漏洞扫描 目录 一.信息搜集技术与隐私保护--知识点总结 二.实验步骤 各种搜索技巧的应用 Google Hac ...

  3. 2018-2019-2 20165315《网络攻防技术》Exp6 信息搜集与漏洞扫描

    2018-2019-2 20165315<网络攻防技术>Exp6 信息搜集与漏洞扫描 目录 一.实验内容 二.实验步骤 1.各种搜索技巧的应用 2.DNS IP注册信息的查询 3.基本的扫 ...

  4. 2015306 白皎 《网络攻防》EXP6 信息搜集与漏洞扫描

    2015306 白皎 <网络攻防>EXP6 信息搜集与漏洞扫描 一.问题回答 (1)哪些组织负责DNS,IP的管理. 顶级的管理者是Internet Corporation for Ass ...

  5. 20155318 《网络攻防》Exp6 信息搜集与漏洞扫描

    20155318 <网络攻防>Exp6 信息搜集与漏洞扫描 基础问题 哪些组织负责DNS,IP的管理. 互联网名称与数字地址分配机构,ICANN机构.其下有三个支持机构,其中地址支持组织( ...

  6. 2018-2019-2 20165215《网络攻防技术》Exp6 信息搜集与漏洞扫描

    目录 实验目的 实验内容 基础知识 实验步骤 (一)各种搜索技巧的应用 Google Hacking 搜索网址目录结构 搜索特定类型的文件 路由侦查 (二)DNS IP注册信息的查询 whois域名注 ...

  7. 20155334 《网络攻防》 Exp6 信息搜集与漏洞扫描

    20155334 Exp6 信息搜集与漏洞扫描 一.实验问题回答 哪些组织负责DNS,IP的管理? 答:互联网名称与数字地址分配机构 ICANN ,该机构决定了域名和IP地址的分配.负责协调管理DNS ...

  8. 2018-2019-2 网络对抗技术 20162329 Exp6 信息搜集与漏洞扫描

    目录 Exp6 信息搜集与漏洞扫描 一.实践原理 1. 间接收集 2. 直接收集 3. 社会工程学 二.间接收集 1. Zoomeye 2. FOFA 3. GHDB 4. whois 5. dig ...

  9. 2018-2019-2 网络对抗技术 20165303 Exp6 信息搜集与漏洞扫描

    实践内容 (1)各种搜索技巧的应用 (2)DNS IP注册信息的查询 (3)基本的扫描技术:主机发现.端口扫描.OS及服务版本探测.具体服务的查点(以自己主机为目标) (4)漏洞扫描:会扫,会看报告, ...

随机推荐

  1. TkMybatis添加对象后返回数据的id

    在实体类的id属性上加上下面的注解 //导入的包import javax.persistence.GeneratedValue; @GeneratedValue(generator = "J ...

  2. SpringMVC异步处理的 5 种方式

    作者:丁仪 来源:https://chengxuzhixin.com/blog/post/SpringMVC-yi-bu-chu-li-de-5-zhong-fang-shi.html 前段时间研究了 ...

  3. 剑指 Offer 14- II. 剪绳子 II + 贪心 + 数论 + 快速幂

    剑指 Offer 14- II. 剪绳子 II 题目链接 因为有取模的操作,动态规划中max不能用了,我们观察:正整数从1开始,但是1不能拆分成两个正整数之和,所以不能当输入. 2只能拆成 1+1,所 ...

  4. C#无损压缩图片

    /// <summary> /// 根据指定尺寸得到按比例缩放的尺寸,返回true表示以更改尺寸 /// </summary> /// <param name=" ...

  5. 12. Vue搭建本地服务

    一. 搭建本地服务器 本地服务可以提高开发效率. webpack不需要每次都打包, 就可以看到修改后的效果. 本地服务器基于node.js搭建, 内部使用二十express框架. 可以实现让浏览器自动 ...

  6. 盘点Excel中的那些有趣的“bug”

    本文由葡萄城技术团队原创并首发 转载请注明出处:葡萄城官网,葡萄城为开发者提供专业的开发工具.解决方案和服务,赋能开发者. Excel 1.0早在1985年正式进入市场,距今已经有36年了,虽然在推出 ...

  7. FreeBSD pkg基础教程1

    pkg 基础教程1装上系统默认没有pkg,先获取pkg:#pkg 回车即可输入y 确认下载------------------------------------pkg使用https,先安装ssl 证 ...

  8. springboot2.0全局异常处理,文件上传过大会导致,方法被执行两次,并且连接被重置

    最后发现是内嵌tomcat也有文件大小限制,默认为2MB,我上传的是4MB,然后就炸了.在application.properties中添加server.tomcat.max-swallow-size ...

  9. C# 通过ServiceStack 操作Redis——String类型的使用及示例

    1.引用Nuget包 ServiceStack.Redis 我这里就用别人已经封装好的Reids操作类,来演示,并附上一些说明 RedisConfigInfo--redis配置文件信息 /// < ...

  10. 「NOIP模拟赛」Round 2

    Tag 递推,状压DP,最短路 A. 篮球比赛1 题面 \(Milky\ Way\)的代码 #include <cstdio> const int N = 2000, xzy = 1e9 ...