白帽黑客

找黑客,免费黑客网,撞库攻击,黑客入门,爬虫技术

聊一聊渗透测试过程中的脚本功能

今日就来给各位聊一聊在网站渗透测试中大家也许必须写的代码作用,我平时替代手工制作提高高效率应用的语种是 python,因此就以 python 为例子围绕全部融合全过程的作用,还可以做为具体指导,目的性的去学习和实践活动。

渗入流程中通常包括信息收集和系统漏洞利用2个关键一部分,在信息收集中,我们要收集总体目标的外部财产信息,也就是我们在外界可以同时浏览的云服务器和运用,这主要包括:网站域名信息、IP 信息、公司内部员工信息、端口号对外开放信息、web 运用信息等。

信息收集

网站域名信息包括一级域名的申请注册信息及其公司对外开放分析的全部二级域名列表等,申请注册信息可以根据 whois 的形式去查询,互联网技术上出现许多网址给予 whois 查看的作用。

获取公司全部二级以上网站域名的方式许多,例如:

  • 根据网络爬虫的形式去总体目标网址抓取
  • 根据搜索引擎检索有关数据信息
  • 根据字典开展枚举类型(dns 分析)

IP 信息是公司扩大开放的全部 IP 目录,愈多愈好,获取 IP 的路径具体有二种,一种是根据收集到的解析域名出该公司的 IP 目录;第二种是根据 whois 查看这种 IP 信息,看这些 whois 信息中是不是包括总体目标企业的信息,进而确定 IP 的所属,有的情况下,whois 中含有的是一个 IP 段,获取你能根据 IP 获取企业的全部 IP 段。

客户电子邮件的收集关键根据搜索引擎找寻这些安全防范意识不及时公布泄露的邮件地址,还能够根据在网上泄漏的企业有关文本文档中存放的邮件地址,大量的方法这儿不多说了,自身思索吧。

端口号信息的获取关键根据检测的方法,利用前边收集到的 IP 信息,利用端口扫描器的方法获取全部开启的端口号及其相关服务。

web 运用信息主要是便捷大家找寻 web 运用的系统漏洞,在其中包括 web 指纹识别、网络服务器信息、文件目录构造等。

涉及到自动化技术的情景

(1) 如果我们必须检测的网站域名十分多情况下,要想掌握这种网站域名的基本信息,假如一个一个去 whois 查看,是否会非常累?大家能不能开展自动化技术?当然可以,完成的形式也非常简单,我们在互联网上找一个可以域名查询 whois 信息的网址,查询其查看插口,应用 python 的 requests 库要求插口查看就可以,随后写一个 for 循环系统,全自动获取全部网站域名信息储存,跑完自身查询結果就可以。

(2) 在收集二级域名列表时,大家必须从搜索引擎里获取有关纪录,手工制作拷贝不是实际的,终究大型厂的二级以上的网站域名全是上千上万的,因此大家必须从搜索引擎取得百度搜索并将二级以上的网站域名获取出去,要求內容上边早已讲了,获取网站域名关键使用的是 python 的 re 库,学习培训正则表达式的应用尤为重要。

(3) 收集域名列表除开网络爬虫、搜索引擎的方法外,还能够用字典枚举类型,枚举的流程关键使用的是 dns 的分析作用,python 中的 socket 库,在其中有一个函数公式 gethostbyname 可以完成你愿意的作用,***提前准备一份字典就可以开跑了。

(4) 获取了一大批的 IP 详细地址,还想拓展大量的 IP,那麼就必须对收集到的 IP 开展 whois 查看,Linux 下存有一个专用工具 whois 立即可以查看 IP 的 whois 信息,高效率蛮高的,大家可以用 python 的 os 控制模块等可以实行cd命令的控制模块启用 Linux 下的 whois 程序流程查看你要查的 IP 详细地址,***解决查看的全部結果就可以。

(5) IP 目录和 IP 段得到以后,我们要了解这种 IP 上对外开放了这些端口号和服务项目,这时就必须对这种 IP 开展端口扫描器,非常简单的形式是应用 nmap 来扫描仪,python 的启用方法跟里面的一样,大家可以自身写端口扫描工具,在其中最主要的是分辨 IP 的某一端口号是不是对外开放,TCP 的三次握手基本原理我们要懂,可以用 python 的 socket 库,还能够用 scapy 库结构协议书开展检验。

(6) 在端口扫描器的情况下,必须提高速度,减少检验的時间,那麼就要使用 python 的 threading 库,应用线程进程,提高速率,在 guthub 上面有许多封装形式好的 threadpool 库,立即利用就行。

(7) 针对 web 运用,***步是要获取基本上的信息,我们可以应用 python 的 httplib、urllib、urllib2 等基本库,获取 IP 的 web 端口号下的基本上信息,包含 header 中的网络服务器信息、默认页的文章标题和信息等。

(8) 文件目录构造信息获取的方法***种是根据网络爬虫依据平台的连接检测文件目录构造和文件列表,还能够根据自身收集的字典,开展枚举类型文件目录和文档,这儿运用的库跟里面的相近,对于收集的全不全,就看着你收集的字典是否足够好。

系统漏洞利用

通过信息收集控制模块以后,大家对公司的财产信息拥有大致的掌握,在其中也许会包括存有系统漏洞的运用,在系统漏洞利用环节,必须智能化的位置很少,终究系统漏洞利用是具备毁灭性的,大约提一下。

  • 互联网方面的系统漏洞利用可以用 scapy 结构协议书开展利用
  • web 方面主要是这些与 http 协议书有关的库,如:urllib、httplib、requests 等

别的的各位可以填补探讨。

汇总

这儿提及的事物或是不全方位,文中的具体目标是告知大伙儿,在搞渗入的情况下,尽可能完成自动化技术,汇总规律性,提高工作效能,在不足的生命里做大量的事,不用动手是改变命运的首要推动力,有一些情况下不必太勤劳,非常容易造成你消耗很多多余的時间。

  • 评论列表:
  •  笙沉溇涏
     发布于 2022-06-01 20:33:16  回复该评论
  • 其中包括 web 指纹识别、网络服务器信息、文件目录构造等。涉及到自动化技术的情景(1) 如果我们必须检测的网站域名十分多情况下,要想掌握这种网站域名的基本信息,假如一个一个去 whois 查看,是否会非常累?大家能不
  •  痴者礼忱
     发布于 2022-06-02 01:18:06  回复该评论
  • 渗入的情况下,尽可能完成自动化技术,汇总规律性,提高工作效能,在不足的生命里做大量的事,不用动手是改变命运的首要推动力,有一些情况下不必太勤劳,非常容易造成你消耗很多多余的時间。
  •  野欢痴者
     发布于 2022-06-01 19:21:01  回复该评论
  • 程关键使用的是 dns 的分析作用,python 中的 socket 库,在其中有一个函数公式 gethostbyname 可以完成你愿意的作用,***提前准备
  •  青迟音梦
     发布于 2022-06-01 18:37:12  回复该评论
  • 服务。web 运用信息主要是便捷大家找寻 web 运用的系统漏洞,在其中包括 web 指纹识别、网络服务器信息、文件目录构造等。涉及到自动化技术的情景(1) 如果我们必须检测的网站域名
  •  冢渊末屿
     发布于 2022-06-01 19:52:23  回复该评论
  • requests 等别的的各位可以填补探讨。汇总这儿提及的事物或是不全方位,文中的具体目标是告知大伙儿,在搞渗入的情况下,尽可能完成自动化技术,汇总规律性,提高工作效能,在不足的生命里做大量的事,不用动手是改变命运的首要推动力,有一些情况下不必太勤劳,非常容易造成你消耗很多多余的時间。

发表评论:

Powered By

Copyright Your WebSite.Some Rights Reserved.