最近要写一款基于被动式的漏洞扫描器,因为被动式是将我们在浏览器浏览的时候所发出的请求进行捕获,然后交给扫描器进行处理,本来打算自己写这个代理的,但是因为考虑到需要抓取https,所以最后找到Mitmproxy这个程序。
安装方法:
pip install mitmproxy
接下来通过一个案例程序来了解它的使用,下面是目录结构
sproxy
|utils
|__init__.py
|parser.py
|sproxy.py
sproxy.py代码
#coding=utf-8 from pprint import pprint from mitmproxy import flow, proxy, controller, options from mitmproxy.proxy.server import ProxyServer from utils.parser import ResponseParser # http static resource file extension static_ext = ['js', 'css', 'ico', 'jpg', 'png', 'gif', 'jpeg', 'bmp'] # media resource files type media_types = ['image', 'video', 'audio'] # url filter url_filter = ['baidu','360','qq.com'] static_files = [ 'text/css', 'image/jpeg', 'image/gif', 'image/png', ] class WYProxy(flow.FlowMaster): def __init__(self, opts, server, state): super(WYProxy, self).__init__(opts, server, state) def run(self): try: pprint("proxy started successfully...") flow.FlowMaster.run(self) except KeyboardInterrupt: pprint("Ctrl C - stopping proxy") self.shutdown() def get_extension(self, flow): if not flow.request.path_components: return '' else: end_path = flow.request.path_components[-1:][0] split_ext = end_path.split('.') if not split_ext or len(split_ext) == 1: return '' else: return split_ext[-1:][0][:32] def capture_pass(self, flow): # filter url url = flow.request.url for i in url_filter: if i in url: return True """if content_type is media_types or static_files, then pass captrue""" extension = self.get_extension(flow) if extension in static_ext: return True # can't catch the content_type content_type = flow.response.headers.get('Content-Type', '').split(';')[:1][0] if not content_type: return False if content_type in static_files: return True http_mime_type = content_type.split('/')[:1] if http_mime_type: return True if http_mime_type[0] in media_types else False else: return False @controller.handler def request(self, f): pass @controller.handler def response(self, f): try: if not self.capture_pass(f): parser = ResponseParser(f) result = parser.parser_data() if f.request.method == "GET": print result['url'] elif f.request.method == "POST": print result['request_content'] # POST提交的参数 except Exception as e: raise e @controller.handler def error(self, f): pass # print("error", f) @controller.handler def log(self, l): pass # print("log", l.msg) def start_server(proxy_port, proxy_mode): port = int(proxy_port) if proxy_port else 8090 mode = proxy_mode if proxy_mode else 'regular' if proxy_mode == 'http': mode = 'regular' opts = options.Options( listen_port=port, mode=mode, cadir="~/.mitmproxy/", ) config = proxy.ProxyConfig(opts) state = flow.State() server = ProxyServer(config) m = WYProxy(opts, server, state) m.run() if __name__ == '__main__': start_server("8090", "http")
parser.py
# from __future__ import absolute_import class ResponseParser(object): """docstring for ResponseParser""" def __init__(self, f): super(ResponseParser, self).__init__() self.flow = f def parser_data(self): result = dict() result['url'] = self.flow.request.url result['path'] = '/{}'.format('/'.join(self.flow.request.path_components)) result['host'] = self.flow.request.host result['port'] = self.flow.request.port result['scheme'] = self.flow.request.scheme result['method'] = self.flow.request.method result['status_code'] = self.flow.response.status_code result['content_length'] = int(self.flow.response.headers.get('Content-Length', 0)) result['request_header'] = self.parser_header(self.flow.request.headers) result['request_content'] = self.flow.request.content return result @staticmethod def parser_multipart(content): if isinstance(content, str): res = re.findall(r'name=\"(\w+)\"\r\n\r\n(\w+)', content) if res: return "&".join([k + '=' + v for k, v in res]) else: return "" else: return "" @staticmethod def parser_header(header): headers = {} for key, value in header.items(): headers[key] = value return headers @staticmethod def decode_response_text(content): for _ in ['UTF-8', 'GB2312', 'GBK', 'iso-8859-1', 'big5']: try: return content.decode(_) except: continue return content
参考链接:
https://github.com/ring04h/wyproxy
以上这篇python使用mitmproxy抓取浏览器请求的方法就是小编分享给大家的全部内容了,希望能给大家一个参考,也希望大家多多支持小牛知识库。
问题内容: 我花了一天的时间研究可用于完成以下任务的图书馆: 检索网页的全部内容(例如在后台),而不向视图渲染结果。 例如,lib应该支持触发ajax请求的页面,以便在加载初始HTML之后加载一些其他结果数据。 从生成的html中,我需要获取xpath或CSS选择器形式的元素。 将来我可能还需要导航到下一页(触发事件,提交按钮/链接等) 这是我尝试未成功的尝试: Jsoup:效果很好,但不支持ja
问题内容: 我正在尝试列出适用于浏览器自动测试套装和能够抓取的无头浏览器平台的可能解决方案。 浏览器测试/报废: Selenium - 通晓多国语言的浏览器自动化的旗舰,为Python和Ruby,JavaScript中,C#,Haskell和更多,IDE的Firefox(作为扩展),更快的测试部署绑定。可以充当服务器并具有大量功能。 JAVASCRIPT PhantomJS - JavaScrip
问题内容: 我想从下面的网站获取内容。如果我使用Firefox或Chrome之类的浏览器,则可以获取所需的真实网站页面,但是如果我使用Python请求包(或命令)来获取它,它将返回完全不同的HTML页面。我以为网站的开发人员为此做了一些阻碍,所以问题是: 如何使用python请求或命令wget伪造浏览器访问? 问题答案: 提供标题: 假用户代理 最新的简单useragent伪造者与真实世界数据库
问题内容: 我花了一天的时间研究可用于完成以下任务的图书馆: 检索网页的全部内容(例如在后台),而不向视图渲染结果。 例如,lib应该支持触发ajax请求的页面,以便在加载初始HTML之后加载一些其他结果数据。 从生成的html中,我需要获取xpath或CSS选择器形式的元素。 将来我可能还需要导航到下一页(触发事件,提交按钮/链接等) 这是我尝试未成功的尝试: Jsoup:效果很好,但不支持ja
在我的php文件中,我有以下内容来创建一个带有FPDF库的PDF: 但是请求是响应这个,而不是打开一个保存对话框来保存我的PDF。 %PDF-1.3 3 0 obj<>endobj 4 0 obj<>stream x 3 R@2π35 W(çR qπw 3 t04多30 pispéz*[(hx·ääää+çó)·(j*dé7 w endstream endobj 1 0 obj /xobject<
主要内容:控制台界面,数据包抓取,看变化规律几乎所有浏览器都提供了抓取数据包的功能,因为浏览器为抓包提供了一个专门的操作界面,因此这种抓包方式也被称为“控制台抓包”。本节以 Chrome 浏览器为例进行抓包演示。 控制台抓包指的是利用浏览器开的发者调试工具抓取客户端与后端服务器交互的数据,它能够将网络传输中发送与接收的数据进行截获、重发和编辑。 控制台抓包非常适合于 POST 请求类型。我们知道,POST 请求使用 Form 表单向服务器提