首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

linux日志切割神器logrotate

logrotate 诞生于 1996/11/19 是一个 Linux 系统日志的管理工具,本文会详细介绍 Linux 日志切割神器 logrotate 的原理和配置。...Linux 日志切割神器 logrotate 原理介绍和配置详解 logrotate简介 llogrotate 是一个 linux 系统日志的管理工具。...可以对单个日志文件或者某个目录下的文件按时间 / 大小进行切割,压缩操作;指定日志保存数量;还可以在切割之后运行自定义命令。...create copytruncate Linux 文件操作机制 介绍一相关的 Linux 的文件操作机制。 Linux 文件系统里文件和文件名的关系如下图。...3 点到 22 点之间,而且随机延迟时间是 45 分钟,但是这样配置无法满足我们在现实中的应用 现在的需求是将切割时间调整到每天的晚上 12 点,即每天切割日志是前一天的 0-24 点之间的内容,操作如下

1.3K11

Linux系统日志切割-Logrotate

关于日志切割 日志文件包含了关于系统中发生的事件的有用信息,在排障过程中或者系统性能分析时经常被用到。对于忙碌的服务器,日志文件大小会增长极快,服务器会很快消耗磁盘空间,这成了个问题。...logrotate配置 /var/log/log-file { # 仅针对 /var/log/wtmp 所设定的参数 monthly # 每月一次切割,取代默认的一周 rotate...要调用为/etc/lograte.d/配置的所有日志调用logrotate: [root@boysec.cn ~]$ logrotate /etc/logrotate.conf 要为某个特定的配置调用...logrotate生产应用 为nginx设置日志切割 防止访问日志文件过大 cat /etc/logrotate.d/nginx /application/nginx/logs/*.log {...配置完毕后,进程是全自动的,可以长时间在不需要人为干预运行。本教程重点关注几个使用logrotate的几个基本样例,你也可以定制它以满足你的需求。

4.7K30
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    LinuxNginx、MySQL和PHP等应用的日志切割脚本

    Linux中如果应用程序会产生日志,那么就需要考虑日志切割,例如按照固定的大小切割、按照日期进行切割等等。...如果所有的日志都打印到同一个文件中的话,那么时间长了的话就会影响效率。...这篇文章就是针对Linux应用使用shell脚本进行分割的描述,该脚本特点是:按天切割、自定义切割出来的日志保留的天数以及记录脚本执行过程和耗时。...在使用时需要配置好对应应用的日志目录(Source_Log_Dir变量)、日志备份目录(Backup_Dirs变量),然后使用Crontab定时任务执行该脚本即可。...下面是脚本nginx_log_backup.sh的具体内容,这里备份的是Nginx日志,其它诸如MySQL、php等Linux应用只要修改脚本对应的日志路径即可。

    10610

    Linux日志切割工具Logrotate配置详解

    用于分割日志文件,压缩转存、删除旧的日志文件,并创建新的日志文件,下面就对logrotate日志轮转的记录: 1.1 Logrotate配置文件介绍 Linux系统默认安装logrotate,默认的配置文件...Debug选项来验证一(-d参数) 具体logrotate命令格式如下: logrotate [OPTION...]...就是切割后的日志文件以当前日期为格式结尾,如xxx.log-20131216这样,如果注释掉,切割出来是按数字递增,即前面说的 xxx.log-1这种格式 compress //是否通过gzip压缩转储以后的日志文件...3点到22点之间,而且随机延迟时间是45分钟,但是这样配置无法满足我们在现实中的应用 现在的需求是将切割时间调整到每天的晚上12点,即每天切割日志是前一天的0-24点之间的内容,操作如下: mv...; then /usr/bin/logger -f logrotate "ALERT exited abnormally with [$EXITVALUE]" fi exit 0 最后最后重启cron

    60530

    日志切割工具-Logrotate实现nginx日志切割

    我们只需要配置你所需要切割的参数就可以。 很多程序的会用到logrotate滚动日志,比如nginx。它们安装后,会在/etc/logrotate.d这个目录下增加自己的logrotate的配置文件。.../etc/logrotate.conf include /etc/logrotate.d 常见参数 dateext: 切割日志带上日期 monthly: 日志文件将按月轮循。...在这种情况,rsyslogd 进程将立即再次读取其配置并继续运行。 sharedscripts: 在所有的日志文件都轮转完毕后统一执行一次脚本。...invoke-rc.d nginx rotate >/dev/null 2>&1 endscript } 运行测试Logrotate 手动调用 # 调用为/etc/lograte.d/配置的所有日志调用...还想了解可以看看这个 https://linux.cn/article-4126-1.html,比较详细

    2K10

    日志切割

    那么其中的reopen,就是我们今天的主角,我们可以使用reopen来实现日志切割。...原理解析: 发送信号,其实是执行: kill -USR1 `cat /usrlocal/nginx/logs/nginx.pid` 以上两种方式都可以实现日志切割,你可以任意选择。...定期执行: 日志切割时企业中常规动作,我们不会每天去手工执行一遍命令,通常是让脚本自己执行,于是我们可以将这个动作写进任务计划,每天凌晨自动执行。 脚本: #!...-eq 0 ];then echo "$(date +%F) 日志切割成功" fi 写入任务计划: 在/var/spool/cron/root文件中添加如下代码,每天11:59分自动切割日志...: 59 23 * * * /bin/sh nginx_cut_log.sh >>/tmp/nginx_cut.log 2>&1 到这里简单的日志切割工作就完成啦。

    59700

    Nginx 日志切割

    日志切割 当网站访问量大后,日志数据就会很多,如果全部写到一个日志文件中去,文件会变得越来越大,文件大速度就会慢下来,比如一个文件几百兆,写入日志的时候,就会影响操作速度....手动切割 --进入日志目录 cd /usr/local/nginx/logs/ --重命名日志文件 [root@host1 logs]# mv access{,....,日志目录中自动生成了一个新的'access.log'文件 /usr/local/nginx/sbin/nginx -s reopen 重命名日志文件后,'nginx'日志仍然会写入到"access.2020...重命名后,我们需要让nginx重新打开一个新文件,以便将新的日志写入到新文件中 编写脚本 --编写脚本实现日志切割,可以配合'crontab'计划任务 [root@host1 /]# vim /nginx_logs.sh...,以endscript结尾,命令需要单独成行 endscript 重启nginx日志服务,写入到新的文件中去,否则会依然写入重命名后的文件中 启动 --启动'logrotate'并且指定配置文件切割

    1.3K10

    Nginx 日志切割

    最近还在写图床工具,涉及到日志统计相关的,比如访问统计,流量统计等,看了一七牛的实现,发现每次创建一个bucket仓库都会自动生成一个域名,该仓库的资源都会走这个域名。...但是自己要实现这一套逻辑还是满繁琐的,所以初步还是考虑用 Nginx 的一些功能来代替,其中流量统计就考虑使用 Nginx 自带的日志来分析。...考虑到日后日志大小过大,NodeJs读取会花太多时间,所以是要按天来切割日志,刚开始我写了一个简单的脚本。利用 crontab 的定时功能。...先按日期重命名文件,然后新建一个同名的日志文件让 Nginx 来写入,实际测试发现新建的 log 并没有被写入。...但是 Nginx reload 却可以,最终网上找到了 killall -s USR1 nginx 这条命令来通知 Nginx 重新创建新的日志 #!

    89750

    Nginx 日志切割

    最近还在写图床工具,涉及到日志统计相关的,比如访问统计,流量统计等,看了一七牛的实现,发现每次创建一个bucket仓库都会自动生成一个域名,该仓库的资源都会走这个域名。...但是自己要实现这一套逻辑还是满繁琐的,所以初步还是考虑用 Nginx 的一些功能来代替,其中流量统计就考虑使用 Nginx 自带的日志来分析。...考虑到日后日志大小过大,NodeJs读取会花太多时间,所以是要按天来切割日志,刚开始我写了一个简单的脚本。利用 crontab 的定时功能。...先按日期重命名文件,然后新建一个同名的日志文件让 Nginx 来写入,实际测试发现新建的 log 并没有被写入。...但是 Nginx reload 却可以,最终网上找到了 killall -s USR1 nginx 这条命令来通知 Nginx 重新创建新的日志 #!

    48410

    Mongodb日志切割

    Mongodb日志切割 依据客户端查询来设计集合的片键及索引,最近几天突然需要查询历史数据进行分析,我们的有些集合count达到亿条以上,每个文档几百个字段。...遇到问题第一反应是看日志文件,拿到notepad之后由于文件太大无法打开,只能采用重启,然后开始查询mongodb日志管理的文档。Mongodb官网提出可以对日志进行切换。...在mongodb中切换日志文件可以采用几种方式: 1.logRotate 默认情况,Mongodb是开启--logRotaterename选项的,在rename的情况,可以在log...3.SIGUSR1 在linux,可以使用kill –SIGUSR1(pid of mongod),对mongos及mongod都适用。...选择第一种方式进入mongodb中,编写js脚本,然后sh命令调用这个js命令,指定一个linux的任务。Linux的任务分为当前用户任务,系统用户。

    1.7K70

    Linux 大文件切割与合并

    往往是因为网络传输的限制,导致很多时候,我们需要在 Linux 系统进行大文件的切割。这样将一个大文件切割成为多个小文件,进行传输,传输完毕之后进行合并即可。 ?...文件切割 - split 在 Linux 系统使用 split 命令进行大文件切割很方便 命令语法 -a: #指定输出文件名的后缀长度(默认为2个:aa,ab...)...) split [-a] [-d] [-l ] [-b ] [-C ] [要切割的文件] [输出文件名] 使用实例 # 行切割文件 $ split -l 300000 users.sql...software/coreutils/split> or available locally via: info '(coreutils) split invocation' 文件合并 - cat 在 Linux...系统使用 cat 命令进行多个小文件的合并也很方便 命令语法 -n: #显示行号 -e: #以$字符作为每行的结尾 -t: #显示TAB字符(^I) cat [-n] [-e] [-t] [输出文件名

    3.1K30

    Linux 大文件切割与合并

    作者: Escape 链接: https://escapelife.github.io/posts/72f237d3.html 往往是因为网络传输的限制,导致很多时候,我们需要在 Linux 系统进行大文件的切割...这样将一个大文件切割成为多个小文件,进行传输,传输完毕之后进行合并即可。...文件切割 - split 在 Linux 系统使用 split 命令进行大文件切割很方便 命令语法 -a: #指定输出文件名的后缀长度(默认为2个:aa,ab...)...) split [-a] [-d] [-l ] [-b ] [-C ] [要切割的文件] [输出文件名] 使用实例 # 行切割文件 $ split -l 300000 users.sql...系统使用 cat 命令进行多个小文件的合并也很方便 命令语法 -n: #显示行号 -e: #以$字符作为每行的结尾 -t: #显示TAB字符(^I) cat [-n] [-e] [-t] [输出文件名

    2.9K50

    11.23 访问日志切割

    访问日志切割目录概要 日志一直记录总有一天会把整个磁盘占满,所以有必要让它自动切割,并删除老的日志文件 把虚拟主机配置文件改成如下: DocumentRoot...img 重新加载配置文件 -t, graceful ls /usr/local/apache2.4/logs 访问日志切割日志一直往一个文件中写入,总会有一天把磁盘写满...,所以就需要把文件每天做一个切割,然后超过一定时间段的这些日志删除或者拷贝走,这样就能保证磁盘永远写不满 打开配置文件 vim /usr/local/apache2.4/conf/extra/httpd-vhosts.conf...如果不指定 -l ,那么就会指定 UTC时间 的格式去切割日志 在中国应该是 CST,在美国是 UTC ,两者时区不同,相差几个小时 定义日志的名称,因为是切割的,所以根据时间日期让它自动变,就需要加一个变量...另外还需要做一个任务计划,超过一个月或两个月的日志删除,如果不删除,那是否切割日志就没有意义了 日志切割总结 做日志切割的目的,是为了防止磁盘写满,另一个目的就是为了更方便的去管理日志

    704100
    领券