首页
学习
活动
专区
圈层
工具
发布
28 篇文章
1
【准备篇】js逆向分析破解之学习准备
2
js_cookie破解 | 爬虫遇到521还不会解决吗?
3
js_cookie破解好文 | 爬虫遇到521还不会解决吗?
4
爬虫系列(1)第一步肯定是先介绍介绍爬虫。
5
爬虫系列(2)爬虫需要使用什么工具,你知道吗?
6
爬虫系列(3)初窥urllib库。
7
爬虫系列(4)深入urllib库并初步了解URLError与Cookie。
8
爬虫系列(5)更简便Requests请求库使用介绍。
9
爬虫系列(6)数据提取--正则表达式。
10
爬虫系列(7)数据提取--Beautiful Soup。
11
爬虫系列(8)数据提取--扩展三种方法。
12
爬虫系列(9)爬虫的多线程理论以及动态数据的获取方法。
13
爬虫系列(10)Scrapy 框架介绍、安装以及使用。
14
爬虫系列(11)Scrapy 数据的提取和保存以及Pipeline的介绍。
15
爬虫系列(12)Scrapy 框架 - settings以及一个简单的小说案例实现。
16
爬虫系列(13)Scrapy 框架-CrawlSpider、图片管道以及下载中间件Middleware。
17
爬虫系列(14)Scrapy 框架-模拟登录-Request、Response。
18
爬虫系列(15)Splash 的使用。
19
爬虫系列(16)Scrapy 框架-爬取JS生成的动态页面。
20
爬虫系列(17)Scrapy 框架-分布式Scrapy-Redis以及Scrapyd的安装使用。
21
爬虫系列(18)Python-Spider。
22
爬虫实践 | 玩转百度地图API,带你看遍全国公园。
23
爬虫实践 | 维基百科深度优先与广度优先的开展
24
一个案例让你入门爬虫之Q房网爬虫实例
25
一个案例让你入门爬虫之二:Q房网爬虫多层页面爬取实例
26
一个案例让你入门爬虫之三:Q房网房源图片下载及多线程爬虫实现实例
27
广州地震了!地震到底离我们有多近,Python 爬虫带你了解
28
爬虫面试题 | 系统设计 —— 如何设计一个网页爬虫

爬虫系列(2)爬虫需要使用什么工具,你知道吗?

1. 常用的工具

  1. python
  2. pycharm
  3. 浏览器
    1. chrome
    2. 火狐
  4. fiddler

2 fiddler的使用

2.1 操作界面

2.2 界面含义

请求 (Request) 部分详解

名称

含义

Headers

显示客户端发送到服务器的 HTTP 请求的,header 显示为一个分级视图,包含了 Web 客户端信息、Cookie、传输状态等

Textview

显示 POST 请求的 body 部分为文本

WebForms

显示请求的 GET 参数 和 POST body 内容

HexView

用十六进制数据显示请求

Auth

显示响应 header 中的 Proxy-Authorization(代理身份验证) 和 Authorization(授权) 信息

Raw

将整个请求显示为纯文本

JSON

显示JSON格式文件

XML

如果请求的 body 是 XML格式,就是用分级的 XML 树来显示它

响应 (Response) 部分详解

名称

含义

Transformer

显示响应的编码信息

Headers

用分级视图显示响应的 header

TextView

使用文本显示相应的 body

ImageVies

如果请求是图片资源,显示响应的图片

HexView

用十六进制数据显示响应

WebView

响应在 Web 浏览器中的预览效果

Auth

显示响应 header 中的 Proxy-Authorization(代理身份验证) 和 Authorization(授权) 信息

Caching

显示此请求的缓存信息

Privacy

显示此请求的私密 (P3P) 信息

Raw

将整个响应显示为纯文本

JSON

显示JSON格式文件

XML

如果响应的 body 是 XML 格式,就是用分级的 XML 树来显示它

2.3 设置

2.3.1 如何打开

启动Fiddler,打开菜单栏中的 Tools >Options,打开“Fiddler Options”对话框

2.3.2 设置
  • Capture HTTPS CONNECTs 捕捉HTTPS连接
  • Decrypt HTTPS traffic 解密HTTPS通信
  • Ignore server certificate errors 忽略服务器证书错误
  • all processes 所有进程
  • browsers onlye 仅浏览器
  • nono- browsers only 仅非浏览器
  • remote clients only 仅远程链接
  • Trust Root Certificate(受信任的根证书) 配置Windows信任这个根证书解决安全警告
  • Allow remote computers to connect 允许远程连接
  • Act as system proxy on startup 作为系统启动代理
  • resuse client connections 重用客户端链接

2.4 捕获链接(抓包)

  1. 安装SwitchyOmega 代理管理 Chrome 浏览器插件
  2. 设置代理

最后,附上一张python工作方向图:

下一篇
举报
领券