【字典】关于目录字典的一些思路
信息收集 OSINT path directory discover dir brute forece
Contents
正文
比较重要的一些开源字典
1 https://github.com/gwen001/SecLists/tree/master/dirb
2 https://github.com/fuzzdb-project/fuzzdb/tree/master/discovery/predictable-filepaths
3 还有一套是 猪猪侠(ring04h) 的字典
另外在之前 唐朝@硬糖-PwnDog 的 DC0531 2018 的一个分享中,
提到了他收集了 1000 + CMS 的源码,将其中的路径与文件名制作成字典。 在 SRC 挖掘过程中, 用于 fuzz 一些默认首页什么都没有的边缘网站,有时候会有不错的效果。
跟着这条思路,可以考虑去收集一些 海量的 Web 数据集,比如 Common Crawlers ,或者一些搜索引擎的开放数据,比如 Yahoo, Google 或者 百度 开放的大规模 URL 数据。对这些数据进行处理生成效果较好的 fuzz 文件。
目录/路径字典
the hacker playbook 3 的作者推荐了名为 raft 的一系列字典。
https://github.com/danielmiessler/SecLists/tree/master/Discovery/Web-Content
另外 dirbuster 内置的 directory-list-2.3
也还比较好用。
目录后缀字典
https://www.webopedia.com/quick_ref/fileextensionsfull.asp
密码字典
the hacker playbook 3 的作者 推荐了一个主要用于离线模式的字典,用 8 块 1080 Ti 集群跑。
41G 的密码字典 (主要用于 hashcat, 在线用 Intruder 跑是不现实的)
BreachCompilation.tar.bz2
http://thehackerplaybook.com/get.php?type=THP-password
在线模式可以考虑 csdn-tianya-top-1.5w.txt
密码字典 2
https://github.com/r35tart/RW_Password
Leave a Reply