在漏洞奖励计划中,只要你不是第一名,那你就是最后一名,银牌和铜牌都没有任何意义。在漏洞挖掘的过程中,网络侦察扮演着至关重要的角色,如果你能比其他人更早地发现/识别新添加的资产,那么你发现/报告该资产上的安全缺陷并因此获得奖励的几率就比其他人高。
WebCopilot是一款功能强大的子域名枚举和安全漏洞扫描工具,该工具能够枚举目标域名下的子域名,并使用不同的开源工具检测目标存在的安全漏洞。
关于GSAN GSAN这款工具能够帮助广大研究人员从HTTPS网站的SSL证书中直接提取主题别名,并向我们提供DNS名称(子域名)和虚拟服务器的相关信息。 该工具支持从HTTPS网站提取子域名,并返回一个列表文件或CSV/JSON格式的扫描结果输出。该工具并不是一个子域名爆破工具,而是一个自动化域名扫描发现工具。 功能介绍 1、从HTTPS网站的SSL证书中直接提取主题别名; 2、子域名提取/枚举; 3、支持使用文本文件或直接在终端窗口中以命令形式定义多个主机:端口; 4、CSV或J
PyMeta是一款针对目标域名元数据的信息收集工具,该工具基于Python 3开发,是PowerMeta(基于PowerShell开发)的Python 3重构版本,在该工具的帮助下,广大研究人员可以将目标域名相关的网页元数据(文件等)提取到本地,这种技术可以有助于我们识别目标域名、用户名、软件/版本和命名约定等。
实战中经常会对收集的资产做一些文本处理, 其中有很多重复的操作, 既然是重复的事情, 那就让代码解决吧.
CWFF是一款专用于模糊测试的自定义字典工具,该工具可以帮助广大研究人员以高速并发的形式创建一个特定的高质量模糊测试/内容发现字典。
InfoHound是一款针对域名安全的强大OSINT工具,在该工具的帮助下,广大研究人员只需要提供一个Web域名,InfoHound就可以返回大量跟目标域
功能类似于JSFinder,开发由来就是使用它的时候经常返回空或链接不全,作者还不更新修bug,那就自己来咯
前言 本文适合Web安全爱好者,其中会提到8种思路,7个工具和还有1个小程序,看本文前需要了解相关的Web基础知识、子域名相关概念和Python 程序的基础知识。 感谢我的好友龙哥的技巧大放送以及Oritz分享的小程序~ 首先我们引用一句名言作为开篇: 在渗透测试中,信息搜集能力的差距,不明显,也最明显。 这句话是龙哥说的,而在技术分享上,我们觉得授之以鱼之前,更重要的是授之以渔。因此本篇文章首先进行子域名搜集思路的梳理,抛砖引玉,然后介绍一下常用的工具,最后分享一个基于 HTTPS 证书的子域名查询小工具
通常有自己博客的朋友都可以算作是喜欢分享,技术能力是次要的,只要爱分享就是我们所寻找的有缘人。
在渗透测试及漏洞挖掘过程中,信息搜集是一个非常重要的步骤。而在网站的JS文件中,会存在各种对测试有帮助的内容。
最近一直在研究自动化漏洞发现的技术,github 也有非常多优秀的集成工具,本着学习研究的心态,对这些工具进行了学习,今天来分享其中的一个,通过 bash 脚本将各种工具集成到一起,实现无需自己实现相关功能也能自动化漏洞发现。项目地址:
Nuubi是一款功能强大的信息收集&网络侦查扫描工具,该工具基于Python语言开发,因此拥有较强的跨平台特性,广大研究人员可以使用Nuubi轻松完成信息收集、网络侦查以及网络扫描等任务。
很多时候访问目标资产IP响应多为:401、403、404、500,但是用域名请求却能返回正常的业务系统(禁止IP直接访问),因为这大多数都是需要绑定host才能正常请求访问的 (目前互联网公司基本的做法)(域名删除了A记录,但是反代的配置未更新),那么我们就可以通过收集到的目标的 域名 和 目标资产 的IP段组合起来,以 IP段+域名 的形式进行捆绑碰撞,就能发现很多有意思的东西。
DNSX是一款功能强大的多用途DNS工具包,该工具运行速度非常快,它不仅允许研究人员使用retryabledns库来运行多个探测器,而且还允许我们通过传递用户提供的解析器列表来执行多个DNS查询请求。
whois(读作“Who is”,非缩写)是用来查询域名域名域名的IP以及所有者所有者所有者等信息的传输协议传输协议传输协议。简单说,whois就是一个用来查询域名域名域名是否已经被注册,以及注册域名的详细信息的数据库(如域名所有人、域名注册域名注册域名注册商)。通过whois来实现对域名域名域名信息的查询。早期的whois查询多以命令列接口存在,但是现在出现了一些网页接口简化的线上查询工具,可以一次向不同的数据库查询。网页接口的查询工具仍然依赖whois协议向服务器发送查询请求,命令列接口的工具仍然被系统管理员系统管理员系统管理员广泛使用。whois通常使用TCPTCPTCP协议43端口。每个域名域名域名/IP的whois信息由对应的管理机构保存。(取自百度百科。)
Vajra是一个自动化的Web渗透测试框架,它可以帮助广大安全研究人员在Web应用程序渗透测试期间自动执行无聊的侦察任务以及针对多个目标的相同扫描。Vajra具有高度可定制特性,允许研究人员自定义扫描范围,我们无需针对目标执行所有的扫描,我们可以根据自己的需要来选择需要执行的扫描任务,这样可以最大化减少不必要的通信流量,并将扫描结果输出至CouchDB中。
「搜索引擎的语法」是你必须掌握的一点,这里我就不再列出来,直接附上一位博主的语法解释文章:传送门
正则表达式是一件屠龙神器,但是要把它讲好非常困难,建议是阅读这篇正则表达式 30 分钟入门,这是目前见过最好的正则表达式入门的文章了。在本文中,只介绍一个 SED 配合正则表达式使用的例子,介绍一点基本的概念,因为如果你完全不了解正则表达式,这几个命令在你看起来可能会跟天书一样难懂。
目前在读大学生,挖过半年SRC,发现实验室刚入的大一新生有大多数都不是很了解某个具体网站的漏洞要如何挖掘,想借这篇文章总结一下漏洞挖掘的基本步骤。
JS开发的WEB应用和PHP,JAVA,NET等区别在于即没有源代码,也可以通过浏览器的查看源代码获取真实的点。获取URL,获取JS敏感信息,获取代码传参等,所以相当于JS开发的WEB应用属于白盒测试(默认有源码参考),一般会在JS中寻找更多的URL地址,在JS代码逻辑(加密算法,APIkey配置,验证逻辑等)进行后期安全测试。
无论是高级持续性威胁(APT)、僵尸网络(Botnet),还是勒索软件、后门等,命令与控制信道(C&C)都是其重要组成部分,尤其是APT和僵尸网络中的C&C信道决定了其威胁程度。学术界和工业界就C&C方面的研究已逐渐深入,目前网络战格局逐渐形成,公众对网络安全逐渐重视,网络空间中的攻防双方持续较量。
这篇文章来自老应急师@沉默树人老哥投稿,同时也给大家分享一个学习流量包分析和恶意文件分析的网站:https://www.malware-traffic-analysis.net/
你还在用Excel进行目标管理吗?你还在为收集目标的信息而烦恼吗?你还在测试时不停地复制粘贴吗?那么来试试 domain hunter pro 吧!方便快捷的目标管理、自动化的信息收集、与burp无缝衔接、与外部安全工具联动...
资产收集则更偏向于针对一个网站,一个公司,一个域名全方面的信息收集,信息资产包括但不限于子域名,app,小程序等。
HEDnsExtractor是一款功能强大的域名与IP安全评估工具,该工具使用到了Hurricane Electric门户提供的能力,可以帮助广大研究人员快速识别网络系统和IP地址,并对目标网络执行安全评估、扫描和分析。
DNSenum是一款非常强大的域名信息收集工具。它能够通过谷歌或者字典文件猜测可能存在的域名,并对一个网段进行反向查询。它不仅可以查询网站的主机地址信息、域名服务器和邮件交换记录,还可以在域名服务器上执行axfr请求,然后通过谷歌脚本得到扩展域名信息,提取子域名并查询,最后计算C类地址并执行whois查询,执行反向查询,把地址段写入文件。本小节将介绍使用DNSenum工具检查DNS枚举,KaliLinux系统自带
这是在github上找到的做恶意软件分析的资料,已经非常全面了,希望对做恶意软件检测的同学有帮助。
长期保持更新的百度网盘不限速下载PanDownload 目前已上线网页版,无需下载客户端即可解析获得直链。直链下载速度通常要比百度网盘网页版下载速度更快,不过经测试浏览器速度不如PanDownload 客户端快。网页版的好处是全平台通用例如你可以在安卓浏览器里直接发起直链下载,免去要安装百度官方安装客户端。所以如果追求更快的速度的话那么建议下载使用PanDownload 客户端,小文件什么的直接网页版下载即可。
自动化寻找网站的注入漏洞,需要先将目标网站的所有带参数的 URL 提取出来,然后针对每个参数进行测试,对于批量化检测的目标,首先要提取大量网站带参数的 URL,针对 GET 请求的链接是可以通过自动化获取的,而 POST 型参数提交的方式,则需要手工点击,然后代理抓取数据包再进行提交测试。
SharpChromium SharpChromium是一个针对浏览器数据的.NET 4.0 CLR项目,在SharpChromium的帮助下,广大研究人员可以轻松提取浏览器中类似Cookie、浏览历史和存储凭证之类的数据。 值得一提的是,SharpChromium目前支持Google Chrome、Microsoft Edge以及Microsoft Edge Beta版本浏览器,并且能够提取下列类型的数据: Cookie(JSON格式); 历史记录,以及跟每一条历史记录相关的Cookie; 存储的用户凭证
DNSMORPH是一款功能强大的域名组合置换引擎,其设计灵感来源于dnstwist。该工具基于纯Go语言开发,因此该工具具备较好的兼容性和性能。需要注意的是,DNSMORPH可以有效且稳定地处理用户提供的任何域或子域,并提供了许多配置选项来调整排列置换任务的运行。
写在前面的话 2016年8月1日,我曾发表过一篇文章【点击文末的阅读原文查看】并介绍了如何使用哈希算法来提升大型DNS日志文件的搜索效率。但是这篇文章中还存在一个问题,当时我手中并没有从真实环境中获取的大型DNS日志,所以我当时必须手动制作这些DNS日志文件。但是现在,虽然我在研究的过程中已经获取到了大量真实的DNS日志,但我仍然不能使用它们,因为这些文件并不属于我个人,而事件应急响应中最重要的部分就是客户隐私。所以我还是要自己创建大量伪造的DNS日志文件,而且我还专门开发了一款DNS日志伪造生成工具。
Xtools 是一款 Sublime Text 插件,同时是一款简单的资产处理工具,在渗透测试实战过程中,有很多重复的操作,所以思考着写一款小工具来减少重复的劳动。
本篇文章所记录的工具是目前我所接触到的一些,目的是为了能够给初入网络安全的朋友一些参考,同时也为了方便以后自己查看总结。CTF中用到的一些工具这里并没有记录,如果师傅们需要可以放出来哈。
信安之路上很少发布跟开发相关的文章,给人的感觉好像搞安全不需要写代码一样的,其实不是这样的,因为开发相关技术有专门的人去分享,而我们只想专注于安全技术而已,今天就来给大家聊一聊在渗透测试中我们可能需要写的脚本功能,我平时代替手工提升效率使用的语言是 python,所以就以 python 为例贯穿整个渗透过程的功能,也可以作为指导,针对性的去学习和实践。
简介: 一款针对Webpack等前端打包工具所构造的网站进行快速、高效安全检测的扫描工具。本工具支持自动模糊提取对应目标站点的API以及API对应的参数内容,并支持对:未授权访问、敏感信息泄露、CORS、SQL注入、水平越权、弱口令、任意文件上传七大漏洞进行模糊高效的快速检测。在扫描结束之后,本工具还支持自动生成扫描报告,您可以选择便于分析的HTML版本以及较为正规的doc、pdf、txt版本
针对单个网站的信息收集,可能没什么难度,有大量一键信息收集的工具,比如 oneforall,但是如果你面对的目标是一千一万个,该如何信息收集?数据该如何使用?
在黑盒测试的渗透测试项目,HW等进行渗透测试会使用到那些工具?下面做一个简短的常见基础篇工具使用介绍,
AntiSquat是一款功能强大的域名安全检测工具,该工具基于人工智能技术实现其功能,例如自然语言处理(NLP)和大语言模型(ChatGPT)等,可以帮助广大研究人员更好地检测误植域名和钓鱼域名。
*本文原创作者:shentouceshi,本文属FreeBuf原创奖励计划,未经许可禁止转载 为了提高工作效率,最近写了几款渗透测试类的工具,在这里给大家分享一下。 工具一:小米范web查找器:快速扫描端口并识别web应用 工作原理: 快速端口扫描。 对开放的端口快速识别http/https。 如果识别到为http/https,则抓取首页title、Server头,响应头。 如果端口非http/https,则通过socket方式抓取其banner信息。 功能及特性: 1、工具内置浏览器插件,另外针对开放端口
目前针对Tor的攻击检测方法都是采用主动攻击,本文将介绍一种被动攻击的去匿名化方法。 一、当前Tor网络检测方法 当前对Tor网络的攻击检测一般有以下几种方法: 1.控制出口节点,篡改未加密流量。网
生活的艺术,就是艺术的生活; 挖洞的思路,就是思考着挖洞。 各路SRC的迅速崛起,无疑给广大白帽子带来了福音与福利。展露拳脚,占据排行,赚零花钱,获得认可,节日礼物,与
今天给大家介绍的是一款名叫Findomain的工具,这是一款能够帮助我们快速枚举/搜索子域名的跨平台工具。
Vercel 官方有提供 @vercel/og 这个包,可以生成 OG Image(The Open Graph protocol),有直接可用的 API https://og-playground.vercel.app 调用方式为:https://og-image.vercel.app/eallion.png 但是有个很大的问题,不支持中文。再加上「得意黑」字体当时刚发布,很适合做标题,我就利用 @vercel/og 糊了一个 Next.js 的应用,部署到 Vercel,调用方式为:https://og.eallion.com/api/og?title=蜗牛 后来换成「思源宋体」了。不过如前文说所,我现在已经手动生成 OG Image 了,毕竟年更博客。
几年前Lawrence Alexander发表了一篇使用Google Analytics查找网页之间的关联的文章,去年,我也发布了一个关于如何使用Python自动挖掘信息,然后将其可视化的帖子,不幸的
获取网站内视频的方法有很多,我们常用的有录屏、右键下载、使用下载工具(提取)、抄家等等。阅读完这篇文章您将能够下载几乎各大平台所有的视频。
领取专属 10元无门槛券
手把手带您无忧上云