前段时间第一次接触大流量并发,而那时候我还没有相关经验,所以代码写的很渣,导致服务器死了又死
现在也算有点经验了,本文章主要说明下我现在能理解的一些优化方案
一:架构方面
1:前台采用nginx服务器的静态页面...二,后端语言方面
1:一切都做好缓存,根据数据的变动频率做好相对的缓存并设定好缓存时间(注意更改数据之后记得改变下缓存数据,以免发生数据不一致的错误)
可缓存的数据: 变动频率低的数据(网站配置,某些不变动的列表...),计算量过大的数据(需要数据库count(),num(),或者数据量大需要筛选的数据),计算时间长的数据(等待第三方接口数据,等);
2:尽量避免重复查询数据库
3:代码逻辑方面写好,尽量避免重复循环...系统方面
1:nginx服务器做好性能优化,传送门:https://www.cnblogs.com/kevingrace/p/6094007.html
2:超时时间根据平均响应时间做出相应的降低,以免未响应的连接一直占用...nginx进程造成资源浪费
五,服务器方面
1:有钱能使鬼推磨,加钱加配置,加钱上多服务器负载均衡
2:mysql做主从,读写分离
以上就是个人现在能理解的一些优化方面,其他的暂时不知道,大佬们勿喷,有错请指点