便于收集整理最新 exp 或 poc
便于发现相关测试目标的资产
# Title: wechat push CVE-2020 # Date: 2020-5-9 # Exploit Author: weixiao9188 # Version: 4.0 # Tested on: Linux,windows # cd /root/sh/git/ && nohup python3 /root/sh/git/git.py & # coding:UTF-8 import requests import json import time import os import pandas as pd time_sleep = 60 #每隔 20 秒爬取一次 while(True): headers1 = { "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko)Chrome/70.0.3538.25 Safari/537.36 Core/1.70.3741.400 QQBrowser/10.5.3863.400"} #判断文件是否存在 datas = [] response1=None response2=None if os.path.exists("olddata.csv"): #如果文件存在则每次爬取 10 个 df = pd.read_csv("olddata.csv", header=None) datas = df.where(df.notnull(),None).values.tolist()#将提取出来的数据中的 nan 转化为 None requests.packages.urllib3.disable_warnings() response1 = requests.get(url="https://api.github.com/search/repositories?q=CVE2020&sort=updated&per_page=10",headers=headers1,verify=False) response2 =requests.get(url="https://api.github.com/search/repositories?q=RCE&ssort=updated&per_page=10",headers=headers1,verify=False) else: #不存在爬取全部 datas = [] requests.packages.urllib3.disable_warnings() response1 = requests.get(url="https://api.github.com/search/repositories?q=CVE2020&sort=updated&order=desc",headers=headers1,verify=False) response2 =requests.get(url="https://api.github.com/search/repositories?q=RCE&ssort=updated&order=desc",headers=headers1,verify=False) data1 = json.loads(response1.text) data2 = json.loads(response2.text) for j in [data1["items"],data2["items"]]: for i in j: s = {"name":i['name'],"html":i['html_url'],"description":i['description']} s1 =[i['name'],i['html_url'],i['description']] if s1 not in datas: #print(s1) #print(dates) params = { "text":s["name"],"desp":"链接:"+str(s["html"])+"n简介"+str(s["description"]) } print("当前推送为"+str(s)+"n") #print(params) requests.packages.urllib3.disable_warnings() requests.get("https://sct.ftqq.com/SCT99268TQxPaxf2UNoL529fJhyYSW70d") time.sleep(1)#以防推送太猛 print("推送完成n") datas.append(s1) else: pass print("数据已在!") pd.Dataframe(datas).to_csv("olddata.csv",header=None,index=None) time.sleep(time_sleep)
需要:github账号,sct.ftqq.com账号
登录sct.ftqq.com
获取sendkey
将sendkey放置代码中
需要监控的对象放在代码中
脚本运行需要python3环境,还需要下载两个库
使用pycharm可以直接再terminal输入pip install requests 和 pip install pandas
#各种子域名查询
#DNS,备案,证书
#全球节点请求
cdn 枚举爆破或解析子域名对应
便于发现管理员相关的注册信息
黑暗引擎相关搜索fofa,shodan,zoomeye
能查出开放的端口,协议,服务等
使用这些引擎,能很快捷很方便得到对这些网站有一个了解
#微信公众号接口获取
#内部群内部应用内部接
全自动域名收集枚举优秀脚本使用脚本下载地址:
https://github.com/bit4woo/teemo
运行环境python2.7
使用了搜索引擎,第三方接口等
解压后进入teemo-master
运行pip install -r requirements.txt
执行python teemo.py -h
成功运行
python teemo.py -d +域名
如:
结果保存在output中
layer子域名挖掘机
下载
https://www.webshell.cc/6384.html
运行效果
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)