1.fofascan.py 配合 fofa.sql 使用,先导入mysql数据库结构文件 fofa.sql,功能为利用fofa api下载数据并存入数据库
2.如果你是普通会员,那么请使用这个fofa提权脚本 Fofatqv2.2.3.py ,经过长期测试已经非常稳定。
-
2019-12-31|<2.2.3>| 1.查询第一页无需登录(普通会员真难呀:))
2.很久不用,不知道fofa什么时候改成了会员每天只能搜索500次,脚本已特别稳定。不再更新,仅用于学习使用。
-
2019-10-11|<2.2.2>|
1.修复不写入直接读取ipexcept.txt文件时 由于 a+ 方式打开文件,指针默认在文件结尾导致的 无法读取文件
-
2019-08-17|<2.2.1>|
1.重写 file_put 方法
-
2019-08-14|<2.2>|
1.session失效时控制台输出语句:
session 失效,请重新获取session
-
2019-08-02|<2.1>|
1.在数据量较大时,比如一次爬取1000页,ipexcept.txt可能存取几十个ip,添加 runipexcept()方法自动爬取ipexcept.txt 里的ip。
-
2019-07-09|<2.0>|
Fofatqv2.0 为fofa提权脚本2.0,具体改进如下:
1.Fofa每爬取15页左右,返回Status Code: 429 Too Many Requests,这里当页面返回错误时取了最小等待时间20s
2.页面返回错误时重复爬取发生错误的那一页,不遗漏
3.针对ReadTimeout异常,将异常页码捕获,写入ipexcept.txt,方便二次抓取,做到不遗漏每一条数据
-
2019-07-04|<1.0>|
1.Fofatqdemo.py 为Fofa提权脚本,带注释,功能是为普通会员突破api下载限制,拥有与高级会员相同权限,最多可下载10000条数据
2.Fofatq.py 为不带注释的fofa提权脚本,功能与Fofatqdemo.py 一致
爬取144页作为测试,sleep 22次,每次20s,总共耗时566s,算下来解析每一页用时0.87s
1.增加多线程,尝试使用2个线程,发现很快崩溃,fofa限制访问频率限制的很死,所以单线程跑吧。
2.except 异常嵌套,直接进入最外层异常的问题
107行
except: # 这个except没有走,走的外层except,暂未解决
self.file_put(self.ip_except_txt, str(i) + "\n")
pass
except: # requests.exceptions.ReadTimeout as E:
print('ipexcept写入 ' + str(i))
self.file_put(self.ip_except_txt, str(i) + "\n")
pass
(这里我不是很懂,但对程序运行影响不大,所以没有深入研究,哪位师傅知道如何修改请提交个pull request)
3.程序爬取过程中代理切换,pac切换全局等,程序可能会报错