虽然我们说, 应用层协议是我们程序猿自己定的. 但实际上, 已经有大佬们定义了一些现成的, 又非常好用的应用层协议, 供我们直接参考使用. HTTP(超文本传输协议)就是其中之一
在互联网世界中,HTTP(HyperText Transfer Protocol,超文本传输协议)是一个至关重要的协议。它定义了客户端(如浏览器)与服务器之间如何通信,以交换或传输超文本(如 HTML 文档)
HTTP 协议是客户端与服务器之间通信的基础。客户端通过 HTTP 协议向服务器发送请求,服务器收到请求后处理并返回响应。HTTP 协议是一个无连接、无状态的协议,即每次请求都需要建立新的连接,且服务器不会保存客户端的状态信息
平时我们俗称的 "网址" 其实就是说的 URL
像 / ? : 等这样的字符, 已经被 url 当做特殊意义理解了. 因此这些字符不能随意出现
比如, 某个参数中需要带有这些特殊字符, 就必须先对特殊字符进行转义
转义的规则如下: 将需要转码的字符转为 16 进制,然后从右到左,取 4 位(不足 4 位直接处理),每 2 位做一位,前面加上%,编码成%XY 格式
例如:
"+" 被转义成了 "%2B"
urldecode 就是 urlencode 的逆过程;
UrlEncode编码/UrlDecode解码 - 站长工具
其中最常用的就是 GET 方法和 POST 方法
curl -i www.baidu.com
HTTP/1.1 200 OK
Accept-Ranges: bytes
Cache-Control: private, no-cache, no-store, proxy-revalidate, no-transform
Connection: keep-alive
Content-Length: 2381
Content-Type: text/html
Date: Sat, 30 Nov 2024 10:40:07 GMT
Etag: "588604dc-94d"
Last-Modified: Mon, 23 Jan 2017 13:27:56 GMT
Pragma: no-cache
Server: bfe/1.0.8.18
Set-Cookie: BDORZ=27315; max-age=86400; domain=.baidu.com; path=/
<!DOCTYPE html>
...
使用 head 方法,只会返回响应头
curl --head www.baidu.com
HTTP/1.1 200 OK
Accept-Ranges: bytes
Cache-Control: private, no-cache, no-store, proxy-revalidate, no-transform
Connection: keep-alive
Content-Length: 277
Content-Type: text/html
Date: Sat, 30 Nov 2024 10:41:33 GMT
Etag: "575e1f71-115"
Last-Modified: Mon, 13 Jun 2016 02:50:25 GMT
Pragma: no-cache
Server: bfe/1.0.8.18
最常见的状态码, 比如 200(OK), 404(Not Found), 403(Forbidden), 302(Redirect, 重定向), 504(Bad Gateway)
以下是仅包含重定向相关状态码的表格
关于重定向的验证,以 301 为代表
HTTP 状态码 301(永久重定向)和 302(临时重定向)都依赖 Location 选项。以下是关于两者依赖 Location 选项的详细说明:
(永久重定向):
HTTP/1.1 301 Moved Permanently\r\n
Location: https://www.new-url.com\r\n
(临时重定向):
HTTP/1.1 302 Found\r\n
Location: https://www.new-url.com\r\n
总结:无论是 HTTP 301 还是 HTTP 302 重定向,都需要依赖 Location 选项来指定资源的新位置。这个 Location 选项是一个标准的 HTTP 响应头部,用于告诉浏览器应该将请求重定向到哪个新的 URL 地址
HTTP 中的 Connection 字段是 HTTP 报文头的一部分,它主要用于控制和管理客户端与服务器之间的连接状态
下面附上一张关于 HTTP 常见 header 的表格
#include <sys/socket.h>
#include <netinet/in.h>
#include <arpa/inet.h>
#include <unistd.h>
#include <stdio.h>
#include <string.h>
#include <stdlib.h>
void Usage()
{
printf("usage: ./server [ip] [port]\n");
}
int main(int argc, char *argv[])
{
if (argc != 3)
{
Usage();
return 1;
}
int fd = socket(AF_INET, SOCK_STREAM, 0);
if (fd < 0)
{
perror("socket");
return 1;
}
struct sockaddr_in addr;
addr.sin_family = AF_INET;
addr.sin_addr.s_addr = inet_addr(argv[1]);
addr.sin_port = htons(atoi(argv[2]));
int ret = bind(fd, (struct sockaddr *)&addr, sizeof(addr));
if (ret < 0)
{
perror("bind");
return 1;
}
ret = listen(fd, 10);
if (ret < 0)
{
perror("listen");
return 1;
}
for (;;)
{
struct sockaddr_in client_addr;
socklen_t len;
int client_fd = accept(fd, (struct sockaddr *)&client_addr,
&len);
if (client_fd < 0)
{
perror("accept");
continue;
}
char input_buf[1024 * 10] = {0}; // 用一个足够大的缓冲区直接把数
据读完.ssize_t read_size = read(client_fd, input_buf,
sizeof(input_buf) - 1);
if (read_size < 0)
{
return 1;
}
printf("[Request] %s", input_buf);
char buf[1024] = {0};
const char *hello = "<h1>hello world</h1>";
sprintf(buf, "HTTP/1.0 200 OK\nContent-Length:%lu\n\n%s",
strlen(hello), hello);
write(client_fd, buf, strlen(buf));
}
return 0;
}
编译, 启动服务. 在浏览器中输入 http://[ip]:[port], 就能看到显示的结果 "Hello World"
备注:
此处我们使用 9090 端口号启动了 HTTP 服务器. 虽然 HTTP 服务器一般使用 80 端口,但这只是一个通用的习惯. 并不是说 HTTP 服务器就不能使用其他的端口号.
使用 chrome 测试我们的服务器时, 可以看到服务器打出的请求中还有一个 GET /favicon.ico HTTP/1.1 这样的请求.
HTTP(Hypertext Transfer Protocol,超文本传输协议)作为互联网中浏览器和服务器间通信的基石,经历了从简单到复杂、从单一到多样的发展过程。以下将按照时间顺序,介绍 HTTP 的主要版本、核心技术及其对应的时代背景
HTTP Cookie(也称为 Web Cookie、浏览器 Cookie 或简称 Cookie)是服务器发送到用户浏览器并保存在浏览器上的一小块数据,它会在浏览器之后向同一服务器再次发起请求时被携带并发送到服务器上。通常,它用于告知服务端两个请求是否来自同一浏览器,如保持用户的登录状态、记录用户偏好等
类似于下面这种方式:
由于 Cookie 是存储在客户端的,因此存在被篡改或窃取的风险
Set-Cookie: <name>=<value>
其中 <name> 是 Cookie 的名称,<value> 是 Cookie 的值。
Set-Cookie: username=peter; expires=Thu, 18 Dec 2024 12:00:00
UTC; path=/; domain=.example.com; secure; HttpOnly
时间格式必须遵守 RFC 1123 标准,具体格式样例:Tue, 01 Jan 2030 12:34:56 GMT 或者 UTC(推荐)
注意事项
6.6.2.5 安全性考虑[了解即可]
单独使用 Cookie,有什么问题?
HTTP Session 是服务器用来跟踪用户与服务器交互期间用户状态的机制。由于 HTTP协议是无状态的(每个请求都是独立的),因此服务器需要通过 Session 来记住用户的信息
HTTP Cookie 和 Session 都是用于在 Web 应用中跟踪用户状态的机制。Cookie 是存储在客户端的,而 Session 是存储在服务器端的。它们各有优缺点,通常在实际应用中会结合使用,以达到最佳的用户体验和安全性
HTTPS 也是一个应用层协议,是在 HTTP 协议的基础上引入了一个加密层
HTTP 协议内容都是按照文本的方式明文传输的,这就导致在传输过程中出现一些被篡改的情况
加密就是把 明文 (要传输的信息)进行一系列变换,生成 密文
解密就是把 密文 再进行一系列变换,还原成 明文
在这个加密和解密的过程中,往往需要一个或者多个中间的数据, 辅助进行这个过程,这样的数据称为 密钥
83 版 <<⽕烧圆明园>>,有人要谋反干掉慈禧太后,恭亲王奕䜣给慈禧递的折子,折子内容只是扯一扯家常,套上一张挖了洞的纸就能看到真实要表达的意思 明文: "当心肃顺, 端华, 戴恒" (这几个人都是当时的权臣, 后来被慈禧一锅端). 密文: 奏折全文 密钥: 挖了洞的纸
臭名昭著的 "运营商劫持"
下载一个 天天动听
由于我们通过网络传输的任何的数据包都会经过运营商的网络设备(路由器,交换机等),那么运营商的网络设备就可以解析出你传输的数据内容,并进行篡改
点击 "下载按钮",其实就是在给服务器发送了一个 HTTP 请求,获取到的 HTTP 响应其实就包含了该 APP 的下载链接,运营商劫持之后,就发现这个请求是要下载天天动听,那么就自动的把交给用户的响应给篡改成 "QQ 浏览器" 的下载地址了
所以:因为 http 的内容是明文传输的,明文数据会经过路由器、wifi 热点、通信服务运营商、代理服务器等多个物理节点,如果信息在传输过程中被劫持,传输的内容就完全暴露了。劫持者还可以篡改传输的信息且不被双方察觉,这就是 中间人攻击 ,所以我们才需要对信息进行加密
不止运营商可以劫持,其他的 黑客 也可以用类似的手段进行劫持,来窃取用户隐私信息,或者篡改内容
试想一下,如果黑客在用户登陆支付宝的时候获取到用户账户余额,甚至获取到用户 的支付密码......
在互联网上,明文传输是比较危险的事情!!!
HTTPS 就是在 HTTP 的基础上进行了加密,进一步的来保证用户的信息安全
一个简单的对称加密:按位异或 假设 明文 a = 1234,密钥 key = 8888 则加密 a ^ key 得到的密文 b 为 9834 然后针对密文 9834 再次进行运算 b ^ key,得到的就是原来的明文 1234 (对于字符串的对称加密也是同理,每一个字符都可以表⽰成一个数字) 当然,按位异或只是最简单的对称加密,HTTPS 中并不是使用按位异或
非对称加密要用到两个密钥,一个叫做 "公钥",一个叫做 "私钥"
公钥和私钥是配对的,最大的缺点就是运算速度非常慢,比对称加密要慢很多
也可以反着用
非对称加密的数学原理比较复杂,涉及到一些 数论 相关的知识,这里举一个简单的生活上的例子 A 要给 B 一些重要的文件,但是 B 可能不在,于是 A 和 B 提前做出约定: B 说:我桌子上有个盒子,然后我给你一把锁,你把文件放盒子里用锁锁上,然后我回 头拿着钥匙来开锁取文件 在这个场景中,这把锁就相当于公钥,钥匙就是私钥,公钥给谁都行(不怕泄露), 但是 私钥只有 B 自己持有,持有私钥的人才能解密
既然要保证数据安全,就需要进行 "加密"
网络传输中不再直接传输明文了,而是加密之后的 "密文"
加密的方式有很多,但是整体可以分成两大类:对称加密 和 非对称加密
如果通信双方都各自持有同一个密钥 X,且没有别人知道,这两方的通信安全当然是可以被保证的(除非密钥被破解)
引入对称加密之后,即使数据被截获,由于黑客不知道密钥是啥,因此就无法进行解密,也就不知道请求的真实内容是啥了
但事情没这么简单,服务器同一时刻其实是给很多客户端提供服务的,这么多客户端,每个人用的秘钥都必须是不同的(如果是相同那密钥就太容易扩散了,黑客就也能拿到了)
因此服务器就需要维护每个客户端和每个密钥之间的关联关系,这也是个很⿇烦的事情
比较理想的做法,就是能在客户端和服务器建⽴连接的时候,双方协商确定这次的密钥是啥
但是如果直接把密钥明文传输,那么黑客也就能获得密钥了,此时后续的加密操作就形同虚设了
因此密钥的传输也必须加密传输!
但是要想对密钥进行对称加密,就仍然需要先协商确定一个 "密钥的密钥",这就成了 "先有鸡还是先有蛋" 的问题了,此时密钥的传输再用对称加密就行不通了
鉴于非对称加密的机制,如果服务器先把公钥以明文方式传输给浏览器,之后浏览器向服务器传数据前都先用这个公钥加密好再传,从客户端到服务器信道似乎是安全的
(有安全问题),因为只有服务器有相应的私钥能解开公钥加密的数据
但是服务器到浏览器的这条路怎么保障安全?
如果服务器用它的私钥加密数据传给浏览器,那么浏览器用公钥可以解密它,而这个公钥是一开始通过明文传输给浏览器的,若这个公钥被中间人劫持到了,那他也能用该公钥解密服务器传来的信息了
这样貌似也行啊,但是
先解决效率问题
虽然上面已经比较接近答案了,但是依旧有安全问题
方案 2,方案 3,方案 4 都存在一个问题,如果最开始,中间人就已经开始攻击了呢?
Man-in-the-MiddleAttack,简称“MITM 攻击”
确实,在方案 2/3/4 中,客户端获取到公钥 S 之后,对客户端形成的对称秘钥 X 用服务端给客户端的公钥 S 进行加密,中间人即使窃取到了数据,此时中间人确实无法解出客户端形成的密钥 X,因为只有服务器有私钥 S'
但是中间人的攻击,如果在最开始握手协商的时候就进行了,那就不一定了,假设 hacker 已经成功成为中间人
上面的攻击方案,同样适用于方案 2,方案 3
问题本质出在哪里了呢?客户端无法确定收到的含有公钥的数据报文,就是⽬标服务器发送过来的
服务端在使用 HTTPS 前,需要向 CA 机构申领一份数字证书,数字证书里含有证书申请者信息、公钥信息等。服务器把证书传输给浏览器,浏览器从证书里获取公钥就行了,证书就如身份证,证明服务端公钥的权威性
基本说明:
https://baike.baidu.com/item/CA%E8%AE%A4%E8%AF%81/6471579?fr=aladdin
这个 证书 可以理解成是一个结构化的字符串, 里面包含了以下信息:
需要注意的是:申请证书的时候,需要在特定平台生成查,会同时生成一对密钥对,即公钥和私钥。这对密钥对⼉就是用来在网络通信中进行明文加密以及数字签名的
其中公钥会随着 CSR 文件,一起发给 CA 进行权威认证,私钥服务端自己保留,用来后续进行通信(其实主要就是用来交换对称秘钥)
可以使用在线生成 CSR 和私钥:CSR在线生成工具
形成 CSR 之后,后续就是向 CA 进行申请认证,不过一般认证过程很繁琐,网络各种提供证书申请的服务商,一般真的需要,直接找平台解决就行
签名的形成是基于非对称加密算法的,注意,⽬前暂时和 https 没有关系,不要和 https 中的公钥私钥搞混了
当服务端申请 CA 证书的时候,CA 机构会对该服务端进行审核,并专⻔为该网站形成数字签名,过程如下:
服务端申请的证书明文和数字签名 S 共同组成了数字证书,这样一份数字证书就可以颁发给服务端了
在客户端和服务器刚一建⽴连接的时候, 服务器给客户端返回一个 证书,证书包含了之前服务端的公钥, 也包含了网站的身份信息
当客户端获取到这个证书之后,会对证书进行校验(防止证书是伪造的)
验证证书是否被篡改:从系统中拿到该证书发布机构的公钥,对签名解密,得到一个 hash 值(称为数据摘要),设为 hash1,然后计算整个证书的 hash 值,设为 hash2,对比 hash1 和 hash2 是否相等,如果相等,则说明证书是没有被篡改过的
Chrome 浏览器, 点击右上角的
选择"设置",搜索"证书管理",即可看到以下界面(如果没有,在隐私设置和安全性->安全里面找找)
中间人有没有可能篡改该证书?
中间人整个掉包证书?
常见的摘要算法有:MD5 和 SHA 系列 以 MD5 为例,我们不需要研究具体的计算签名的过程,只需要了解 MD5 的特点:
正因为 MD5 有这样的特性,我们可以认为如果两个字符串的 MD5 值相同,则认为这两个字符串相同
理解判定证书篡改的过程: (这个过程就好比判定这个身份证是不是伪造的身份证)
假设我们的证书只是一个简单的字符串 hello,对这个字符串计算 hash 值(比如 md5),结果为 BC4B2A76B9719D91
如果 hello 中有任意的字符被篡改了,比如变成了 hella,那么计算的 md5 值就会变化很大:BDBD6F9CF51F2FD8
然后我们可以把这个字符串 hello 和 哈希值 BC4B2A76B9719D91 从服务器返回给客户端, 此时客户端如何验证 hello 是否是被篡改过?
那么就只要计算 hello 的哈希值,看看是不是 BC4B2A76B9719D91 即可
但是还有个问题,如果黑客把 hello 篡改了,同时也把哈希值重新计算下,客户端就分辨不出来了
所以被传输的哈希值不能传输明文,需要传输密文
所以,对证书明文(这里就是“hello”)hash 形成散列摘要,然后 CA 使用自己的私钥加密形成签名,将 hello 和加密的签名合起来形成 CA 证书,颁发给服务端,当客户端请求的时候,就发送给客户端,中间人截获了,因为没有 CA 私钥,就无法更改或者整体掉包,就能安全的证明,证书的合法性
最后,客户端通过操作系统里已经存的了的证书发布机构的公钥进行解密, 还原出原始的哈希值, 再进行校验
左侧都是客户端做的事情,右侧都是服务器做的事情
HTTPS 工作过程中涉及到的密钥有三组
其实一切的关键都是围绕这个对称加密的密钥,其他的机制都是辅助这个密钥工作的
第⼆组非对称加密的密钥是为了让客户端把这个对称密钥传给服务器
第一组非对称加密的密钥是为了让客户端拿到第⼆组非对称加密的公钥