对于 Linux 系统安全来说, 日志文件是极其重要的工具。不知为何, 我发现很多运维同学的服务器上都运行着一些诸如每天切分 Nginx 日志之类的 CRON 脚本, 大家似乎遗忘了 Logrotate。logrotate 是 Linux 自带的工具。
logrotate 程序是一个日志文件管理工具。用于分割日志文件, 删除旧的日志文件, 并创建新的日志文件, 起到"转储"作用。可以节省磁盘空间。
logrotate --version
Linux 系统默认安装 logrotate 工具, 它默认的配置文件在:
/etc/logrotate.conf
/etc/logrotate.d/
logroate 的状态文件目录是
/var/lib/lograotate.status
在这个目录下, 会记录上次文件的运行状态。
logrotate.conf
才主要的配置文件, 这个文件是 logroate 的默认配置文件。logrotate.d
是一个目录, 在这个目录下, 我们可以将自己的需要滚动的日志配置放在这个下面。该目录里的所有文件都会被主动的读入 /etc/logrotate.conf
中执行。另外, 如果 /etc/logrotate.d/
里面的文件中没有设定一些细节, 则会以 /etc/logrotate.conf
这个文件的设定来作为默认值。
Logrotate 是基于 CRON 来运行的, 其脚本是 /etc/cron.daily/logrotate
, 日志轮转是系统自动完成的。
实际运行时, Logrotate 会调用配置文件 /etc/logrotate.conf
。
可以在 /etc/logrotate.d
目录里放置自定义好的配置文件, 用来覆盖 logrotate 的缺省值。
[root@huanqiu_web1 ~]# cat /etc/cron.daily/logrotate
#!/bin/sh
/usr/sbin/logrotate /etc/logrotate.conf >/dev/null 2>&1
EXITVALUE=$?
if [ $EXITVALUE != 0 ]; then
/usr/bin/logger -t logrotate "ALERT exited abnormally with [$EXITVALUE]"
fi
exit 0
如果等不及 cron
自动执行日志轮转, 想手动强制切割日志, 需要加 -f
参数; 不过正式执行前最好通过 Debug 选项来验证一下(-d
参数), 这对调试也很重要
# /usr/sbin/logrotate -f /etc/logrotate.d/nginx
# /usr/sbin/logrotate -d -f /etc/logrotate.d/nginx
logrotate 命令格式:
logrotate [OPTION...] <configfile>
-d, --debug : debug 模式, 测试配置文件是否有错误。
-f, --force : 强制转储文件。
-m, --mail=command : 压缩日志后, 发送日志到指定邮箱。
-s, --state=statefile : 使用指定的状态文件。
-v, --verbose : 显示转储过程。
根据日志切割设置进行操作, 并显示详细信息
[root@huanqiu_web1 ~]# /usr/sbin/logrotate -v /etc/logrotate.conf
[root@huanqiu_web1 ~]# /usr/sbin/logrotate -v /etc/logrotate.d/php
根据日志切割设置进行执行, 并显示详细信息, 但是不进行具体操作, debug 模式
[root@huanqiu_web1 ~]# /usr/sbin/logrotate -d /etc/logrotate.conf
[root@huanqiu_web1 ~]# /usr/sbin/logrotate -d /etc/logrotate.d/nginx
查看各 log 文件的具体执行情况, 这里记录的是上一次的执行状态
[root@fangfull_web1 ~]# cat /var/lib/logrotate.status
比如以系统日志 /var/log/message
做切割来简单说明下:
messages
会变成 messages.1
, 而且会制造一个空的 messages
给系统来储存日志;messages.1
会变成 messages.2
, 而 messages
会变成 messages.1
, 又造成一个空的 messages
来储存日志!messages.3
这个档案就会被删除, 并由后面的较新的保存日志所取代! 也就是会保存最新的几个日志。日志究竟轮换几次, 这个是根据配置文件中的 rotate
参数来判定的。
看下 logrotate.conf
配置:
# cat /etc/logrotate.conf
# 底下的设定是 "logrotate 的默认值" , 如果別的文件设定了其他的值,
# 就会以其它文件的设定为主
weekly # 默认每一周执行一次 rotate 轮转工作
rotate 4 # 保留多少个日志文件(轮转几次). 默认保留四个。就是指定日志文件删除之前轮转的次数, 0 指没有备份
create # 自动创建新的日志文件, 新的日志文件具有和原来的文件相同的权限; 因为日志被改名, 因此要创建一个新的来继续存储之前的日志
dateext # 这个参数很重要! 就是切割后的日志文件以当前日期为格式结尾, 如 xxx.log-20131216 这样, 如果注释掉, 切割出来是按数字递增, 即前面说的 xxx.log-1 这种格式
compress # 是否通过 gzip 压缩转储以后的日志文件, 如 xxx.log-20131216.gz ; 如果不需要压缩, 注释掉就行
include /etc/logrotate.d # 将 /etc/logrotate.d/ 目录中的所有文件都加载进来
/var/log/wtmp { # 仅针对 /var/log/wtmp 所设定的参数
monthly # 每月一次切割, 取代默认的一周
minsize 1M # 文件大小超过 1M 后才会切割
create 0664 root utmp # 指定新建的日志文件权限以及所属用户和组
rotate 1 # 只保留一个日志。
}
# 这个 wtmp 可记录用户登录系统及系统重启的时间
# 因为有 minsize 的参数, 因此不见得每个月一定会执行一次喔。要看文件大小。
由这个文件的设定可以知道 /etc/logrotate.d
其实就是由 /etc/logrotate.conf
所规划出来的目录, 虽然可以将所有的配置都写入 /etc/logrotate.conf
, 但是这样一来这个文件就实在是太复杂了, 尤其是当使用很多的服务在系统上面时, 每个服务都要去修改 /etc/logrotate.conf
的设定也似乎不太合理了。
所以, 如果独立出来一个目录, 那么每个要切割日志的服务, 就可以独自成为一个文件, 并且放置到 /etc/logrotate.d/
当中
其他重要参数说明
compress 通过 gzip 压缩转储以后的日志
nocompress 不做 gzip 压缩处理
copytruncate 用于还在打开中的日志文件, 把当前日志备份并截断; 是先拷贝再清空的方式, 拷贝和清空之间有一个时间差, 可能会丢失部分日志数据。
nocopytruncate 备份日志文件不过不截断
create mode owner group 轮转时指定创建新文件的属性, 如 create 0777 nobody nobody
nocreate 不建立新的日志文件
delaycompress 和 compress 一起使用时, 转储的日志文件到下一次转储时才压缩
nodelaycompress 覆盖 delaycompress 选项, 转储同时压缩。
missingok 如果日志丢失, 不报错继续滚动下一个日志
errors address 专储时的错误信息发送到指定的 Email 地址
ifempty 即使日志文件为空文件也做轮转, 这个是 logrotate 的缺省选项。
notifempty 当日志文件为空时, 不进行轮转
mail address 把转储的日志文件发送到指定的 E-mail 地址
nomail 转储时不发送日志文件
olddir directory 转储后的日志文件放入指定的目录, 必须和当前日志文件在同一个文件系统
noolddir 转储后的日志文件和当前日志文件放在同一个目录下
sharedscripts 运行 postrotate 脚本, 作用是在所有日志都轮转后统一执行一次脚本。如果没有配置这个, 那么每个日志轮转后都会执行一次脚本
prerotate 在 logrotate 转储之前需要执行的指令, 例如修改文件的属性等动作; 必须独立成行
postrotate 在 logrotate 转储之后需要执行的指令, 例如重新启动 (kill -HUP) 某个服务! 必须独立成行
daily 指定转储周期为每天
weekly 指定转储周期为每周
monthly 指定转储周期为每月
rotate count 指定日志文件删除之前转储的次数, 0 指没有备份, 5 指保留 5 个备份
dateext 使用当期日期作为命名格式
dateformat .%s 配合 dateext 使用, 紧跟在下一行出现, 定义文件切割后的文件名, 必须配合 dateext 使用, 只支持 %Y %m %d %s 这四个参数
size(或 minsize) log-size 当日志文件到达指定的大小时才转储, log-size 能指定 bytes(缺省)及 KB (sizek) 或 MB(sizem).
当日志文件 >= log-size
的时候就转储。 以下为合法格式: (其他格式的单位大小写没有试过)
[root@master-server ~]# vim /etc/logrotate.d/nginx
/usr/local/nginx/logs/*.log {
daily
rotate 7
missingok
notifempty
dateext
sharedscripts
postrotate
if [ -f /usr/local/nginx/logs/nginx.pid ]; then
kill -USR1 `cat /usr/local/nginx/logs/nginx.pid`
fi
endscript
}
[root@bastion-IDC ~# vim /etc/logrotate.d/nginx
/data/nginx_logs/*.access_log{
nocompress
daily
copytruncate
create
ifempty
olddir /data/nginx_logs/days
rotate 0
}
[root@bastion-IDC ~# vim /usr/local/sbin/logrotate-nginx.sh
#!/bin/bash
#创建转储日志压缩存放目录
mkdir -p /data/nginx_logs/days
#手工对 nginx 日志进行切割转换
/usr/sbin/logrotate -vf /etc/logrotate.d/nginx
#当前时间
time=$(date -d "yesterday" +"%Y-%m-%d")
#进入转储日志存放目录
cd /data/nginx_logs/days
#对目录中的转储日志文件的文件名进行统一转换
for i in $(ls ./ | grep "^\(.*\)\.[[:digit:]]$")
do
mv ${i} ./$(echo ${i}|sed -n 's/^\(.*\)\.\([[:digit:]]\)$/\1/p')-$(echo $time)
done
#对转储的日志文件进行压缩存放, 并删除原有转储的日志文件, 只保存压缩后的日志文件。以节约存储空间
for i in $(ls ./ | grep "^\(.*\)\-\([[:digit:]-]\+\)$")
do
tar jcvf ${i}.bz2 ./${i}
rm -rf ./${i}
done
#只保留最近 7 天的压缩转储日志文件
find /data/nginx_logs/days/* -name "*.bz2" -mtime 7 -type f -exec rm -rf {} \;
[root@bastion-IDC ~# crontab -e
#logrotate
0 0 * * * /bin/bash -x /usr/local/sbin/logrotate-nginx.sh > /dev/null 2>&1
手动执行脚本, 测试下看看:
[root@bastion-IDC ~# /bin/bash -x /usr/local/sbin/logrotate-nginx.sh
[root@bastion-IDC ~# cd /data/nginx_logs/days
[root@bastion-IDC days# ls
huantest.access_log-2017-01-18.bz2
现象说明: 使用 logrotate 轮询 nginx 日志, 配置好之后, 发现 nginx 日志连续两天没被切割, 这是为什么呢? ?
然后开始检查日志切割的配置文件是否有问题, 检查后确定配置文件一切正常。
于是怀疑是 logrotate 预定的 cron
没执行, 查看了 cron
的日志, 发现有一条 Dec 7 04:02:01 www crond[18959]: (root) CMD (run-parts /etc/cron.daily)
这样的日志, 证明 cron
在 04:02
分时已经执行 /etc/cron.daily
目录下的程序。
接着查看 /etc
/cron.daily/logrotate
(这是 logrotate 自动轮转的脚本)的内容:
[root@huanqiu_test ~]# cat /etc/cron.daily/logrotate
#!/bin/sh
/usr/sbin/logrotate /etc/logrotate.conf >/dev/null 2>&1
EXITVALUE=$?
if [ $EXITVALUE != 0 ]; then
/usr/bin/logger -t logrotate "ALERT exited abnormally with [$EXITVALUE]"
fi
exit 0
没有发现异常, 配置好的日志轮转操作都是由这个脚本完成的, 一切运行正常, 脚本应该就没问题。
直接执行命令:
[root@huanqiu_test ~]# /usr/sbin/logrotate /etc/logrotate.conf
这些系统日志是正常轮询了, 但 nginx 日志却还是没轮询
接着强行启动记录文件维护操作, 纵使 logrotate 指令认为没有需要, 应该有可能是 logroate 认为 nginx 日志太小, 不进行轮询。
故需要强制轮询, 即在 /etc/cron.daily/logrotate
脚本中将 -t
参数替换成 -f
参数
[root@huanqiu_test ~]# cat /etc/cron.daily/logrotate
#!/bin/sh
/usr/sbin/logrotate /etc/logrotate.conf >/dev/null 2>&1
EXITVALUE=$?
if [ $EXITVALUE != 0 ]; then
/usr/bin/logger -f logrotate "ALERT exited abnormally with [$EXITVALUE]"
fi
exit 0
最后最后重启下 cron
服务:
[root@huanqiu_test ~]# /etc/init.d/crond restart
Stopping crond: [ OK ]
Starting crond: [ OK ]
Logrotate 是基于 CRON 来运行的, 其脚本是 /etc/cron.daily/logrotate
, 实际运行时, Logrotate 会调用配置文件 /etc/logrotate.conf
。
[root@test ~]# cat /etc/cron.daily/logrotate
#!/bin/sh
/usr/sbin/logrotate /etc/logrotate.conf
EXITVALUE=$?
if [ $EXITVALUE != 0 ]; then
/usr/bin/logger -t logrotate "ALERT exited abnormally with [$EXITVALUE]"
fi
exit 0
Logrotate 是基于 CRON 运行的, 所以这个时间是由 CRON 控制的, 具体可以查询 CRON 的配置文件 /etc/anacrontab
(老版本的文件是 /etc/crontab
)
[root@test ~]# cat /etc/anacrontab
# /etc/anacrontab: configuration file for anacron
# See anacron(8) and anacrontab(5) for details.
SHELL=/bin/sh
PATH=/sbin:/bin:/usr/sbin:/usr/bin
MAILTO=root
# the maximal random delay added to the base delay of the jobs
RANDOM_DELAY=45 // 这个是随机的延迟时间, 表示最大 45 分钟
# the jobs will be started during the following hours only
START_HOURS_RANGE=3-22 // 这个是开始时间
#period in days delay in minutes job-identifier command
1 5 cron.daily nice run-parts /etc/cron.daily
7 25 cron.weekly nice run-parts /etc/cron.weekly
@monthly 45 cron.monthly nice run-parts /etc/cron.monthly
第一个是 Recurrence period
第二个是延迟时间
所以 cron.daily
会在 3:22+(5,45)
这个时间段执行, /etc/cron.daily
是个文件夹
通过默认 /etc/anacrontab
文件配置, 会发现 logrotate 自动切割日志文件的默认时间是凌晨 3 点多。
现在需要将切割时间调整到每天的晚上 12 点, 即每天切割的日志是前一天的 0-24 点之间的内容。
操作如下:
[root@kevin ~]# mv /etc/anacrontab /etc/anacrontab.bak // 取消日志自动轮转的设置
[root@G6-bs02 logrotate.d]# cat nstc_nohup.out
/data/nstc/nohup.out {
rotate 30
dateext
daily
copytruncate
compress
notifempty
missingok
}
[root@G6-bs02 logrotate.d]# cat syslog
/var/log/cron
/var/log/maillog
/var/log/messages
/var/log/secure
/var/log/history
{
sharedscripts
compress
rotate 30
daily
dateext
postrotate
/bin/kill -HUP `cat /var/run/syslogd.pid 2> /dev/null` 2> /dev/null || true
endscript
}
结合 crontab 进行自定义的定时轮转操作
[root@kevin ~]# crontab -l
#log logrotate
59 23 * * * /usr/sbin/logrotate -f /etc/logrotate.d/syslog >/dev/null 2>&1
59 23 * * * /usr/sbin/logrotate -f /etc/logrotate.d/nstc_nohup.out >/dev/null 2>&1
[root@G6-bs02 ~]# ll /data/nstc/nohup.out*
-rw------- 1 app app 33218 1 月 25 09:43 /data/nstc/nohup.out
-rw------- 1 app app 67678 1 月 25 23:59 /data/nstc/nohup.out-20180125.gz
除了利用自带的 Logrotate 工具实现日志切割之外, 还可以编写 python 脚本或 shell 脚本以实现日志切割。下面就简单列出几个实例说明下:
[root@test-vm01 mnt]# cat log_rotate.py
#!/usr/bin/env python
import datetime,os,sys,shutil
log_path = '/opt/jumpserver/logs/'
log_file = 'jumpserver.log'
yesterday = (datetime.datetime.now() - datetime.timedelta(days = 1))
try:
os.makedirs(log_path + yesterday.strftime('%Y') + os.sep + \
+ yesterday.strftime('%m'))
except OSError,e:
print
print e
sys.exit()
shutil.move(log_path + log_file,log_path \
+ yesterday.strftime('%Y') + os.sep \
+ yesterday.strftime('%m') + os.sep \
+ log_file + '_' + yesterday.strftime('%Y%m%d') + '.log')
os.popen("sudo /opt/jumpserver/service.sh restart")
手动执行这个脚本:
[root@test-vm01 mnt]# chmod 755 log_rotate.py
[root@test-vm01 mnt]# python log_rotate.py
查看日志切割后的效果:
[root@test-vm01 mnt]# ls /opt/jumpserver/logs/
2017 jumpserver.log
[root@test-vm01 mnt]# ls /opt/jumpserver/logs/2017/
09
[root@test-vm01 mnt]# ls /opt/jumpserver/logs/2017/09/
jumpserver.log_20170916.log
然后做每日的定时切割任务:
[root@test-vm01 mnt]# crontab -e
30 1 * * * /usr/bin/python /mnt/log_rotate.py > /dev/null 2>&1
[root@test-vm01 mnt]# vim log_rotate.py
#!/usr/bin/env python
import datetime,os,sys,shutil
log_path = '/app/nginx/logs/'
log_file = 'www_access.log'
yesterday = (datetime.datetime.now() - datetime.timedelta(days = 1))
try:
os.makedirs(log_path + yesterday.strftime('%Y') + os.sep + \
yesterday.strftime('%m'))
except OSError,e:
print
print e
sys.exit()
shutil.move(log_path + log_file,log_path \
+ yesterday.strftime('%Y') + os.sep \
+ yesterday.strftime('%m') + os.sep \
+ log_file + '_' + yesterday.strftime('%Y%m%d') + '.log')
os.popen("sudo kill -USR1 `cat /app/nginx/logs/nginx.pid`")
其他业务日志的切割脚本跟上面做法相同
[root@qd-vpc-op-consumer01 ~]# cat /app/script/log_rotate.sh
#!/bin/sh
function rotate() {
logs_path=$1
echo Rotating Log: $1
cp ${logs_path} ${logs_path}.$(date -d "yesterday" +"%Y%m%d")
> ${logs_path}
rm -f ${logs_path}.$(date -d "7 days ago" +"%Y%m%d")
}
for i in $*
do
rotate $i
done
每天定时切割日志的任务制定(比如对 python 的一个业务 /data/log/xcspam/
下的日志进行切割, 0K
的日志不进行切割):
[root@qd-vpc-op-consumer01 ~]# crontab -e
#xcspam 日志切割
30 0 * * * find /data/log/xcspam/ -size +0 -name '*.log' | xargs /app/script/log_rotate.sh
手动执行切割:
[root@qd-vpc-op-consumer01 ~]# find /data/log/xcspam/ -size +0 -name '*.log' | xargs /app/script/log_rotate.sh
切割后的日志效果:
[root@qd-vpc-op-consumer01 ~]# ls /data/log/xcspam/
xcspam_error.log xcspam_error.log-20170926
比如对 maridb 日志进行切割
[root@qd-vpc-op-consumer01 ~]# crontab -e
#xcspam 日志切割
30 0 * * * find /var/log/mariadb/ -size +0 -name '*.log' | xargs /app/script/log_rotate.sh
[root@qd-vpc-op-consumer01 ~]# find /var/log/mariadb/ -size +0 -name '*.log' | xargs /app/script/log_rotate.sh
[root@qd-vpc-op-consumer01 ~]# ll /var/log/mariadb/
总用量 8
-rw-r-----. 1 mysql mysql 0 9 月 17 20:31 mariadb.log
-rw-r-----. 1 root root 4532 9 月 17 20:31 mariadb.log.20170916