监控网站URL是否正常最常见的方法莫过于wget和curl命令了,这两个命令都是非常强大的,强大到网友查看帮助都无从选择的地步了,今天呢,老男孩老师正好录制Shell编程实战课程,因此,顺便总结了一下和大家分享。
IIS7站长之家网站监控提供:专业的网站,我们可以做到实时检测网站是否打得开、域名是否被墙、网站是否被劫持,网站被黑、被挂黑链、被挂非法信息。等监控,发现异常我们会发邮件提醒您!
1.1 wget命令
wget命令的参数非常多,至少也有数十个, 但是运维工作中常用的并不多,老男孩老师把最有用的列表如下。
wget命令
下载网页或文件
--spider
模拟爬虫的行为去访问网站,但不会下载网页
-q, --quiet
安静的访问,禁止输出,类似-o /dev/null功能
-o, --output-file=FILE
记录输出到文件
-T, --timeout=SECONDS
访问网站的超时时间
-t, --tries=NUMBER
当网站异常时重试网站的次数
实际监控方法如下:利用wget命令返回值确定网站是否正常
[root@oldboy ~]# wget --spider -T 5 -q -t 2
[root@oldboy ~]# echo $? #
1.2 curl命令
curl命令的参数比wget的参数还多,但运维中常用的参数也并不多,因此也是列表如下:
curl命令
访问网站url
-I/--head
显示响应头信息
-m/--max-time
访问超时的时间
-o/--output
记录访问信息到文件
-s/--silent
沉默模式访问,就是不输出信息
-w/--write-out
以固定特殊的格式输出,例如:%,输出状态码
实际监控方法如下:
1、利用curl命令返回值确定网站是否正常
[root@localhost ~]# curl -s -o /dev/null
[root@localhost ~]# echo $?
2、获取命令执行后的状态码(200表示正常)
[root@localhost ~]# curl -I -m 5 -s -w "%\n" -o /dev/null
200
1.3 开发Shell脚本实现监控指定的URL是否正常
领取专属 10元无门槛券
私享最新 技术干货