本次分享基于618慕课网直播
如果不用nginx,仅仅只是tomcat,要想在同一个80端口下去开多个http服务是不行的,只能开一个,但是使用nginx后,可以开多个,并且可以针对不同的域名去进行访问和配置,这就是虚拟主机的功能。而配置中的server
就是一个虚拟主机。
如上图,用户如果需要配置3个域名的网站,那么就得购买3台服务器。而如果使用了nginx的虚拟主机功能,那么就只需要购买一台服务器,随后通过nginx的虚拟主机功能开启3个server即可,这么一来可以节约成本,不会造成资源浪费,可以参考下图。
以下是虚拟主机的配置,包含了反向代理:
配置虚拟主机server
server {
listen 80;
server_name imooc.imoocdsp.com;
location / {
root html;
index imooc.html;
}
}
server {
listen 80;
server_name course.imoocdsp.com;
location / {
root html;
index course.html;
}
}
server {
listen 80;
server_name teacher.imoocdsp.com;
location / {
root html;
index teacher.html;
}
}
虚拟主机、集群负载均衡基于反向代理,所以得理解反向代理。反向代理就是用户的请求会被代理服务器(nginx/tengine)进行转发,由代理服务器来决定用户的请求访问会到达哪个内网计算机节点,那么这种代理称之为反向代理。
如上图,用户请求会先到达nginx,然后再由nginx决定这个请求最终转发到某些内网的计算机节点,转发过程透明,用户不知道,并且内网的节点是无法直接被外部访问的,必须经过nginx。我们可以举一个生活中的例子,比如开学去学校报到,学生分班不是由自己决定的,会由教务处来决定该学生去哪个班级报到,如下图,学生就是用户,报到上学这个过程就是发起的请求,反向代理服务器就是教务处,具体的某个班级就是内网计算机节点,教务处怎么分班的这个过程学生不知道,是透明的,学生分班必须经过教务处,无法直接去上课:
常见的反向代理场景:负载均衡,虚拟主机等
题外话,什么是正向代理,用户请求经过公网到达目标服务器的过程,会经过正向代理,在家里我们用路由器,路由器之上就是宽带运营商,他们都给你做了一层限制,比如限制网速,限制端口等,他们的作用就是正向代理。可以参考如下图:
图中左侧,我通过路由器为自己和媳妇分别设置了上网速度,因为媳妇经常购物,给他做一些限制,这就是正向代理的基本作用了,我们请求经过自己路由器到达公网再到达右侧的目标服务器,这里的目标服务器就是反向代理服务器了。举个生活中的例子,中考高考的时候我们填志愿,学生就是上网用户,填志愿最终经过教务处,教务处会给我们一定的参考意见,随后志愿分发到全国。道理是一样的。再举一个例子,比如有些公司,会禁止对外网的访问,如果你要访问外网,那么必须启动vpn或者代理服务器,你的所有请求会经过这个代理,你发了什么数据他也知道,可能会限制你访问网盘这类网站,这个就是正向代理。
下面的都用到了线上的阿里云,已经购买5台。其中3台搭建了tomcat,另外2台搭建tengine。我们使用其中一台作为演示负载均衡的效果,最终结合阿里云的SLB负载均衡器来演示高可用。
集群就是人多力量大,目的可以分担流量压力,提升整体系统的并发能力。一人搬砖总没有多个人帮你一起搬砖来的舒服嘛。
集群需要配置上游模块upstream
,www.abc.com
为上游模块的名称。
upstream www.abc.com {
server 172.19.36.76:8099 weight=1;
server 172.19.36.77:8099 weight=1;
keepalive 32;
}
server {
listen 80;
server_name 101.133.214.131;
location / {
proxy_pass http://www.abc.com;
# root html;
# index index.html index.htm;
}
}
server可以配置1个或者多个,代表用户请求进来被反向代理到这个某个tomcat节点,
upstream www.abc.com {
server 192.168.1.171:8080;
server 192.168.1.172:8080;
server 192.168.1.173:8080;
}
用户请求通过访问www.123.com,反向代理到upstream所对应的3个tomcat节点,这个就是3台tomcat组成的集群,如果说1个tomcat能够支持的并发为150,那么3台就差不多是450上下。
server {
listen 80;
server_name www.123.com;
location / {
# 把请求代理到upstream对应的tomcat集群中
proxy_pass http://www.abc.com;
}
}
配置集群的时候其实默认就有负载均衡,默认的是轮询。负载均衡算法有如下几种:
举两个例子:
upstream www.abc.com {
server 192.168.1.171:8080;
server 192.168.1.172:8080;
server 192.168.1.173:8080;
}
按照一定的比率去分配流量的访问,权重越大,被访问到的几率也就越大。一般来说服务器的硬件配置整体性能层次不齐,有的好有的不好,所以,相对来说性能不好的权重分配少一些,性能好的服务器权重分配高一些,这样不同节点承载的压力也就不同了。
举两个例子:
具体配置如下:
upstream www.abc.com {
server 192.168.1.171:8080 weight=1;
server 192.168.1.172:8080 weight=3;
server 192.168.1.173:8080 weight=2;
}
根据用户请求过来的ip做哈希,ip一定是固定的,所以哈希的值也是固定的,这样用户请求到的tomcat节点也是固定的,这种方式可以保证用户会话不会丢失,永远存在,但是如果用户切换网络,比如从wifi到4g,则会导致会话丢失。
举个例子,我人在上海,拨打110,由于我所在的地域是上海,那么对方接通的肯定是上海公安局,如果我现在去了南京,这个时候拨打110,那么运营商根据我所在地分配的接听电话就是江苏公安局了。对吧,这是一个道理,就是根据你的地址来源进行服务节点的分配处理。
配置代码示例:
upstream www.abc.com {
ip_hash;
server 192.168.1.171:8080 weight=1 max_conns=180;
server 192.168.1.172:8080 weight=3;
server 192.168.1.173:8080 weight=2;
}
和iphash同理,用户请求,在浏览器中访问的url,根据这个做hash,分配到不同的节点。
常用的负载均衡算法为 加权轮询,iphash是用的最少甚至不用,因为会造成请求并发量倾斜,容易导致固定的某个节点宕机。
提一下动静分离,架构师课程中,把静态代码发布到nginx,实现动静分离。当然也可以静态代码(JS/CSS/HTML)放到CDN会更好。
提到动静分离就会想到前后端分离,各种分,分分合合的。
附:如果nginx有2台,那么一台负责虚拟静态资源,另外一台负责反向代理也可以。本质上就是使用了2个location来做了2个虚拟主机,一个做静态资源,一个做tomcat反向代理,动静分离可以把动静请求分离,减少tomcat请求压力。ok吧。