Linux下日志文件过大的解决方案

2021-03-05 11:29:51 浏览数 (1)

转自:https://www.jianshu.com/p/9693264b3e6e

不知道大家有没有遇到过,系统突然出现了问题,系统疯狂打日志,导致磁盘出现问题,或者日志过多根本没办法阅读。

往往会想到,对日志文件切分,这样可以留下重要的日志,而删掉不必要的日志。下面就来详细介绍这种方法。

我们可以每天都进行切分日志的操作,那要这样的话,为了避免混淆,我们切分出来的日志都应该带上日期。当然日期我们可以通过以下语句获取:

代码语言:javascript复制
>current_date=`date -d "-1 day" " %Y%m%d"` 

date -d "-1 day"表示获取前一天的日期,就是说我们今天操作的话是切割昨天的日志。 %Y%m%d是具体的日期格式,也就是年月日格式,比如:20181005。

接下来,我们再切割日志。

代码语言:javascript复制
>split  -b 65535000 -d -a 4  myout.txt  ./log/log_${current_date}_ 

其中,65535000是60M,也就是日志文件按60M大小进行切割,可自定义大小。-d -a 4表示文件后缀是4位。我们将文件切割后要按次序进行编号,比如0000,0001,0002……这个4就代表编号的位数。

再之后的./log/log${current_date}就是切割后日志文件的前缀,里面就带入了当前日期。所以,最终的输出格式类似于:log_20181005_0001。

日志文件切割完之后,就可以将日志文件删除了,否则就失去切割文件的意义了。删除的方法可以用以下方式:

代码语言:javascript复制
>cat /dev/null > nohup.out

将以上这些命令写在一个脚本里,每天运行它,就可以将日志文件切割成若干份,便于我们排查。完整的代码如下:

代码语言:javascript复制
>#!/bin/bash 
current_date=`date -d "-1 day" " %Y%m%d"` 
split -b 65535000 -d -a 4 /home/alvin/myout.txt   /home/alvin/log/log_${current_date}_ 
cat /dev/null > nohup.out

0 人点赞