首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

如何让firefox通过mitmproxy连接到网页?

要让Firefox通过mitmproxy连接到网页,你需要设置Firefox的HTTP代理,并安装mitmproxy的证书。以下是具体步骤:

  1. 设置Firefox的HTTP代理
    • 打开Firefox,点击右上角的菜单按钮,然后选择【选项】。
    • 在左侧的菜单中,选择【网络设置】。
    • 在弹出的窗口中,选择【手动配置代理】,然后在HTTP代理字段中输入你运行mitmproxy的机器的IP地址,端口字段中输入mitmproxy的端口(默认是8080)。
    • 确保【同时使用此代理服务器进行FTP和HTTPS】选项被勾选。
    • 点击【确定】保存设置。
  2. 安装mitmproxy的证书
    • 在Firefox中,访问http://mitm.it
    • 你会看到一个页面,上面有各种操作系统的图标。点击【其他】。
    • 下载证书文件。
    • 回到Firefox,再次点击右上角的菜单按钮,然后选择【选项】。
    • 在左侧的菜单中,选择【隐私与安全】。
    • 向下滚动到【证书】部分,点击【查看证书】。
    • 在证书管理器窗口中,选择【证书颁发机构】,然后点击【导入】。
    • 找到你刚刚下载的证书文件,然后点击【打开】。
    • 在弹出的窗口中,勾选【信任此CA标识的网站】,然后点击【确定】。
    • 关闭证书管理器,然后重新启动Firefox。

这样,你就可以通过mitmproxy代理在Firefox中访问网页了。如果你访问的是HTTPS网站,mitmproxy将会拦截并解密HTTPS流量,这需要安装的证书。

页面内容是否对你有帮助?
有帮助
没帮助

相关·内容

  • python mitmproxy 文档

    1、顾名思义,mitmproxy 就是用于 MITM 的 proxy,MITM 即[中间人攻击],用于中间人攻击的代理首先会向正常的代理一样转发请求,保障服务端与客户端的通信,其次,会适时的查、记录其截获的数据,或篡改数据,引发服务端或客户端特定的行为。 2、不同于 fiddler 或 wireshark 等抓包工具,mitmproxy 不仅可以截获请求帮助开发者查看、分析,更可以通过自定义脚本进行二次开发。举例来说,利用 fiddler 可以过滤出浏览器对某个特定 url 的请求,并查看、分析其数据,但实现不了高度定制化的需求,类似于:“截获对浏览器对该 url 的请求,将返回内容置空,并将真实的返回内容存到某个数据库,出现异常时发出邮件通知”。而对于 mitmproxy,这样的需求可以通过载入自定义 python 脚本轻松实现。 3、但 mitmproxy 并不会真的对无辜的人发起中间人攻击,由于 mitmproxy 工作在 HTTP 层,而当前 HTTPS 的普及让客户端拥有了检测并规避中间人攻击的能力,所以要让 mitmproxy 能够正常工作,必须要让客户端(APP 或浏览器)主动信任 mitmproxy 的 SSL 证书,或忽略证书异常,这也就意味着 APP 或浏览器是属于开发者本人的——显而易见,这不是在做黑产,而是在做开发或测试。 4、那这样的工具有什么实际意义呢?据我所知目前比较广泛的应用是做仿真爬虫,即利用手机模拟器、无头浏览器来爬取 APP 或网站的数据,mitmproxy 作为代理可以拦截、存储爬虫获取到的数据,或修改数据调整爬虫的行为。 事实上,以上说的仅是 mitmproxy 以正向代理模式工作的情况,通过调整配置,mitmproxy 还可以作为透明代理、反向代理、上游代理、SOCKS 代理等,但这些工作模式针对 mitmproxy 来说似乎不大常用,故本文仅讨论正向代理模式。 5、python脚本不要小于3.6 6、安装完后,mitmdump 是命令行工具,mitmweb是一个web界面。

    05

    python3 selenium + f

    一、 分析: 抓取动态页面js加载的人民日报里面的新闻详情 https://wap.peopleapp.com/news/1 先打开,然后查看网页源码,发现是一堆js,并没有具体的每个新闻的url详情,于是第一反应,肯定是js动态加载拼接的url。然后接着按f12 查看,就看url,发现出来了好多url。 然后点击具体的某一个新闻详情页面,查看url,把这个url的 后面两个数字其中一个拿到访问主页的时候,f12 抓包结果里面去查找,发现一个url,点击这个url,发现preview里面有好多数据,我第一反应,肯定是每个新闻数据了。看到这些数据里面有两个ID,联想到刚刚访问具体新闻详情页面也有两个数字,肯定,具体新闻页面肯定是 https://wap.peopleapp.com/article 加上两个ID形成的。于是试了一下拼接一个url访问,果然是。于是乎只要抓到这个url,就能获取到每个新闻的详情页了。

    03
    领券