问题:nginx会按照nginx.conf的配置生成access.log和error.log,随着访问量的增长,日志文件会越来越大,既会影响访问的速度(写入日志时间延长),也会增加查找日志的难度,nginx没有这种按天或更细粒度生成日志的机制。所以下面介绍两种方法:1.写脚本,通过定时任务按天重命名日志、重启nginx的方法实现(有重启失败的风险)2.通过工具cronolog实现。推荐方法二。
1.方法一:创建分割日志文件的脚本,添加定时任务
1.1写脚本:重命名日志文件、重启nginx
例如存放路径:/usr/local/nginx/sbin/cut_nginx_logs.sh,按天分割具体内容:
#!/bin/bash #function:cut nginx log files #set the path to nginx log files log_files_path="/data/nginxlog/" log_files_dir=${log_files_path} #set nginx log files you want to cut log_files_name=(access ) #set the path to nginx. nginx_sbin="/usr/local/nginx/sbin/nginx" #Set how long you want to save save_days=30 ############################################ #Please do not modify the following script # ############################################ #mkdir -p $log_files_dir log_files_num=${#log_files_name[@]} #cut nginx log files for((i=0;i<$log_files_num;i++));do mv ${log_files_path}${log_files_name[i]}.log ${log_files_dir}${log_files_name[i]}.log_$(date -d "yesterday" +"%Y-%m-%d") done #delete 30 days ago nginx log files find $log_files_path -mtime +$save_days -exec rm -rf {} \; #restart nginx $nginx_sbin -s reload
1.2.使用crontab添加定时任务
//打开定时任务 crontab -e //进入编辑模式 i //添加定时任务 00 00 * * * /bin/sh /usr/local/nginx/sbin/cut_nginx_logs.sh //保存退出 :wq! //重启crontab服务 /etc/init.d/crond restart //查看定时任务,就会看到你添加的内容了 crontab -l
2. 方法二:通过cronolog工具实现
2.1 下载安装cronolog
2.1.1 下载:下载
2.1.2 安装
1.解压缩
# tar zxvf cronolog-1.6.2.tar.gz
2.进入安装文件所在目录
# cd cronolog-1.6.2
3.运行安装
# ./configure # make # make install
4.查看cronolog安装后所在目录(验证安装是否成功)
# which cronolog
一般情况下显示为:/usr/local/sbin/cronolog
2.2 使用cronolog
2.2.1.创建命名管道
mkfifo /usr/local/nginx/access_log_pipe
2.2.2 配置cronolog,日期按天
如果按小时使用access_%Y-%m-%d-%H.log;如果按分钟使用access_%Y-%m-%d-%H-%M.log
2.2.3 修改配置/usr/local/nginx/conf/nginx.conf
... access_log /usr/local/nginx/access_log_pipe main; ... nohup cat /usr/local/nginx/access_log_pipe | /usr/local/sbin/cronolog /usr/local/nginx/logs/access-%Y-%m-%d.log &
2.2.4 重启nginx
cd /usr/local/nginx/sbin ./nginx -s reload
2.2.5 查看效果
[root@app2 /]# cd /usr/local/nginx/logs/ [root@app2 logs]# ll total 3544 -rw-r--r-- 1 root root 0 Oct 1 07:20 8099.access.log -rw-r--r-- 1 root root 3599534 Oct 1 07:58 access-2016-10-01.log -rw-r--r-- 1 root root 235 Oct 1 07:20 error.log -rw-r--r-- 1 root root 5 Oct 1 06:34 nginx.pid
2.3 定期删除日志
2.3.1 新建sh,删除5天前的
[root@app2 sh]# pwd /usr/local/nginx/sh [root@app2 sh]# vi delete_nginx_logs.sh
添加内容
#set the path to nginx log files log_files_path="/usr/local/nginx/logs/" save_days=5 #delete ? days ago nginx log files find $log_files_path -mtime +$save_days -exec rm -rf {} \;
2.3.2 添加定时任务
[root@localhost sh]# crontab -e 00 00 * * * /bin/sh /usr/local/nginx/sh/delete_nginx_logs.sh
以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持小牛知识库。
本文向大家介绍Nginx日志按日期切割详解(按天切割),包括了Nginx日志按日期切割详解(按天切割)的使用技巧和注意事项,需要的朋友参考一下 实现需求 本文实现的功能是在吗每天凌晨00:00把前一天的Nginx日志access.log重命名为access-xxxx-xx-xx.log格式,例如:access-2016-10-01.log,下面话不多说了,来看看详细的实现方法吧。 实现方法 脚本
我有一个EMR集群,运行一个火花流作业成功了几天。但几天后,群集因步骤失败而终止。我查了日志上面写着 对于此错误,我进行了检查,发现对于JRE内存不足。 我发现集群创建EMR steps日志并存储在路径/mnt/var/logs/hadoop/steps/step_id/上,在创建集群时,我给出了一个logUri路径,日志根据该路径复制到s3位置。所以我的猜测是,由于这些日志,步骤失败正在发生。
我在SpringBoot中使用logback,但无法删除旧的日志文件。 我在logback-spring.xml文件中定义了以下appender: 即使我设置了“MaxHistory”和“CleanHistoryonStart”,超过10天的日志文件也不会被删除。既不是翻转也不是启动。
嗨,我已经在不和谐的py日志删除消息,但现在它是这样的,当消息被删除的机器人什么都没有显示,我可以以某种方式使没有消息发送时,机器人删除消息
本文向大家介绍Linux定时删除日志的简单实现方法,包括了Linux定时删除日志的简单实现方法的使用技巧和注意事项,需要的朋友参考一下 导语 linux是一个很能自动产生文件的系统,日志、邮件、备份等。虽然现在硬盘廉价,我们可以有很多硬盘空间供这些文件浪费,让系统定时清理一些不需要的文件很有一种爽快的事情。 项目中会生成各种各样的日志,随着时间的推移,日志也是越来越多。超过一定时间的日志就没有了参
我想通过log4j2配置生成半天日志文件。我已经给出: 还定义了: 但我只得到AM日志在这种方式,虽然我希望它是什么: 有人能帮我吗?