前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Python爬虫基本原理

Python爬虫基本原理

作者头像
用户9925864
发布2022-07-27 08:14:26
5640
发布2022-07-27 08:14:26
举报
文章被收录于专栏:算法工程师的学习日志

1、爬虫是什么

爬虫是模拟用户在浏览器或者某个应用上的操作,把操作的过程、实现自动化的程序。

当我们在浏览器中输入一个url后回车,后台会发生什么?比如说输入http://www.sina.com.cn/

发生四个步骤

  • 查找域名对应的IP地址。
  • 向IP对应的服务器发送请求。
  • 服务器响应请求,发回网页内容。
  • 浏览器解析网页内容。

网络爬虫本质就是浏览器http请求

浏览器和网络爬虫是两种不同的网络客户端,都以相同的方式来获取网页:

网络爬虫要做的,简单来说,就是实现浏览器的功能。通过指定url,直接返回给用户所需要的数据,而不需要一步步人工去操纵浏览器获取。


2、爬虫的基本原理

爬虫的基本原理是模拟浏览器发送和接收这个数据,但浏览器怎么发送和接收这个数据呢?

2.1 HTTP简介

HTTP协议(HyperTextTransfer Protocol,超文本传输协议)目的是为了提供一种发布和接收HTML(HyperTextMarkup Language)页面的方法。

HTTP是基于TCP协议之上的。在TCP/IP协议参考模型的各层对应的协议如下图,其中HTTP是应用层的协议。默认HTTP的端口号为80,HTTPS的端口号为443。

2.2 HTTP工作过程

一次HTTP操作称为一个事务,其工作整个过程如下:

1 ) 地址解析

如用客户端浏览器请求这个页面:http://localhost.com:8080/index.htm

从中分解出协议名、主机名、端口、对象路径等部分,对于我们的这个地址,解析得到的结果如下:

协议名:http

主机名:localhost.com

端口:8080

对象路径:/index.htm

在这一步,需要域名系统DNS解析域名localhost.com,得主机的IP地址。

2)封装HTTP请求数据包

把以上部分结合本机自己的信息,封装成一个HTTP请求数据包

3)封装成TCP包,建立TCP连接(TCP的三次握手)

在HTTP工作开始之前,客户机(Web浏览器)首先要通过网络与服务器建立连接,该连接是通过TCP来完成的,该协议与IP协议共同构建Internet,即著名的TCP/IP协议族,因此Internet又被称作是TCP/IP网络。

HTTP是比TCP更高层次的应用层协议,根据规则,只有低层协议建立之后才能,才能进行更层协议的连接,因此,首先要建立TCP连接,一般TCP连接的端口号是80。这里是8080端口

4)客户机发送请求命令

建立连接后,客户机发送一个请求给服务器,请求方式的格式为:统一资源标识符(URL)、协议版本号,后边是MIME信息包括请求修饰符、客户机信息和可内容。

5)服务器响应

服务器接到请求后,给予相应的响应信息,其格式为一个状态行,包括信息的协议版本号、一个成功或错误的代码,后边是MIME信息包括服务器信息、实体信息和可能的内容。

实体消息是服务器向浏览器发送头信息后,它会发送一个空白行来表示头信息的发送到此为结束,接着,它就以Content-Type应答头信息所描述的格式发送用户所请求的实际数据

6)服务器关闭TCP连接

一般情况下,一旦Web服务器向浏览器发送了请求数据,它就要关闭TCP连接,然后如果浏览器或者服务器在其头信息加入了这行代码

Connection:keep-alive

TCP连接在发送后将仍然保持打开状态,于是,浏览器可以继续通过相同的连接发送请求。保持连接节省了为每个请求建立新连接所需的时间,还节约了网络带宽。


3、爬虫的基本流程

发起请求—>获取响应内容—>解析内容—>保存数据

3.1 请求

请求方式:请求方式的主要类型是GET,OST两种,另外还有HEAD、PUT、DELETE等。GET 请求的请求参数会显示在URL链接的后面,比如我们打开百度,搜索“图片”,我们会看到请求的URL链接为https://www.baidu.com/s?wd=图片。而POST请求的请求参数会存放在Request内,并不会出现在 URL 链接的后面,比如我们登录知乎,输入用户名和密码,我们会看到浏览器开发者工具的Network页,Request请求有FormData的键值对信息,那里就存放了我们的登录信息,有利于保护我们的账户信息安全;

请求URL:URL全称是统一资源定位符,也就是我们说的网址。比如一张图片,一个音乐文件,一个网页文档等都可以用唯一URL来确定,它包含的信息指出文件的位置以及浏览器应该怎么去处理它;

请求头(RequestHeaders):请求头包含请求时的头部信息,如User-Agent(指定浏览器的请求头),Host,Cookies等信息;

请求体:请求体是请求是额外携带的数据,比如登录表单提交的登录信息数据。

3.2 响应

响应状态:有多种响应状态,比如200代表成功,301 跳转页面,404 表示找不到页面,502 表示服务器错误;

响应头(ResponseHeaders):比如内容类型,内容长度,服务器信息,设置Cookie等;

响应体:响应体最主要的部分,包含了请求资源的内容,比如网页 HTML 代码,图片二进制数据等。

简单演示

代码语言:javascript
复制
import requests
# 导入requests库,需要安装
# 模拟成浏览器访问的头
headers = {'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36'}
resp = requests.get('https://www.baidu.com', headers=headers)
print(resp.text)
# 打印出网页源代码
print(resp.status_code)
# 打印出状态码

运行成功后可以看到打印出来的 html 源代码和 200 状态码了。这就基本上实现了爬虫的Request和Response的过程。

3.3 解析内容

能抓到什么样的内容?

  • 网页文本:如 HTML 文档,Ajax加载的Json格式文本等;
  • 图片,视频等:获取到的是二进制文件,保存为图片或视频格式;
  • 其他只要能请求到的,都能获取。

解析方式有哪些?

  • 直接处理,比如简单的页面文档,只要去除一些空格的数据;
  • Json解析,处理Ajax加载的页面;
  • 正则表达式;
  • BeautifulSoup库;
  • PyQuery;
  • XPath。

3.4 保存数据

解析内容后,根据自己的需求保存对应的数据或者进行数据加工处理,保存图片、pandas处理、写入csv等。


4、python爬虫提取王者荣耀皮肤

原理同前期文章,下面直接给出代码

代码语言:javascript
复制
import os
import requests

url = 'https://pvp.qq.com/web201605/js/herolist.json'
herolist = requests.get(url)  # 获取英雄列表json文件

herolist_json = herolist.json()  # 转化为json格式
hero_name = list(map(lambda x: x['cname'], herolist.json()))  # 提取英雄的名字
hero_number = list(map(lambda x: x['ename'], herolist.json()))  # 提取英雄的编号
hero_skin_number = []
for i in herolist.json():
    try:
        hero_skin_number.append(len(i['skin_name'].split("|")))
    except KeyError:
        hero_skin_number.append(1)


# 下载图片
def downloadPic():
    i = 0
    for j in hero_number:
        # 创建文件夹
        os.mkdir("./" + hero_name[i])
        # 进入创建好的文件夹
        os.chdir("./" + hero_name[i])
        i += 1
        for k in range(1, hero_skin_number[i - 1] + 1):
            # 拼接url
            onehero_link = 'http://game.gtimg.cn/images/yxzj/img201606/skin/hero-info/' + str(j) + '/' + str(
                j) + '-bigskin-' + str(k) + '.jpg'
            print(onehero_link)
            im = requests.get(onehero_link)  # 请求url
            if im.status_code == 200:
                open(str(k) + '.jpg', 'wb').write(im.content)  # 写入文件
        os.chdir("../")

downloadPic()

往期文章参考:

12.奇怪知识(1) --Matlab爬虫获取王者荣耀英雄皮肤

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2020-10-11,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 算法工程师的学习日志 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
CODING DevOps
CODING DevOps 一站式研发管理平台,包括代码托管、项目管理、测试管理、持续集成、制品库等多款产品和服务,涵盖软件开发从构想到交付的一切所需,使研发团队在云端高效协同,实践敏捷开发与 DevOps,提升软件交付质量与速度。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档