默认nginx只会生成一个访问日志,在每天的积累下,日志文件会变的非常大,如果需要做一下日志的分析,无论是使用脚本分析,还是把日志下载本地分析,都不太方便。每天分割Nginx的访问日志,有利于分析日志。
一:新建脚本文件
vim cut_nginx_log.sh
- #!/bin/bash
- #nginx access log segmentation shell script
- #www.webyang.net
- #日志目录
- log_dir="/usr/local/nginx/logs/"
- cd $log_dir
- time=`date +%Y%m%d --date="-1 day"`
- #nginx启动目录
- nginx_dir="/etc/init.d/nginx"
- #日志保存天数
- save_days=15
- #日志文件名所处'/'分割的位置,key('/'数+1)
- num=6;
- #此处待优化(取得文件不带后缀的文件名)
- website=`ls $log_dir*.log | xargs -n 1 | cut -f 1 -d "." | cut -f $num -d "/"`
- #日志目录下所有的日志文件为文件夹,循环新建对应的时间文件
- for i in $website
- do
- #判断目录是否存在
- if[!-d $log_dir$i ];then
- mkdir "$i"
- fi
- mv $log_dir$i.log $log_dir$i/$i-$time.log
- done
- #删除设置天数前的数据
- find $log_dir/-mtime +$save_days -exec rm -rf {} \;
- #平滑启动nginx
- $nginx_dir reload
二、设置crontab,每天定时切割
如果没有安装,运行yum -y install crontabs 安装。
输入crontab -e命令(详情参考:http://www.webyang.net/Html/web/article_232.html),
输入下面的内容:
00 00 * * * /bin/bash /usr/local/nginx/cut_nginx_log.sh
1、00 00意思为00分00点,也就是凌晨0点,后面“ * * * ”为“ 日 月 年 ”无需定义
2、"/usr/local/nginx/cut_nginx_log.sh" 为你的shell的路径。
OK ! 大功告成,每天的0时就会自动完成日志的切割并存在相应的以网站日志文件命名的目录中。
三、展示
web1.log => web1/web1-20160322.log web1/web1-20160323.log
web2.log => web2/web2-20160322.log web2/web2-20160323.log
相关推荐
本解本实现了使用shell脚本实现nginx日志分割,大家如果没资源分下载,可以转至:https://mp.csdn.net/mdeditor/85233117# 去查看源代码。谢谢大家
利用crontab定时机制触发shell脚本,自动切割nginx的日志文件,并实现自动清理,可直接在服务器上上传使用
nginx日志自动定时切割及清除脚本
nginx一键部署,包含shell脚本及nginx安装包
搭建nginx,安装包去官网下载,然后修改脚本路径,执行即可
监控生产环境nginx日志发告警邮件,需要使用linux系统的定时任务,如5分钟执行或者其他时间间隔
nginx按天进行日志切割脚本,同样适合其它很多服务日志的切割,压缩包包含shell切割脚本和使用说明,该脚本适合nginx同时也适合其他类似服务的日志切割,只要简单修改shell脚本即可,灵活多变,实用。
本文将介绍用shell脚本来分析Nginx负载均衡器的日志,这样可以快速得出排名靠前的网站和IP等,推荐大家使用线上环境下的shell脚本。本文中的shell脚本又分为两种情况,第一种情况是Nginx作为前端的负载均衡器,其...
nginx实现请求的负载均衡 + keepalived实现nginx的高可用的shell脚本,在liunx下跑就可以
Nginx日志切割脚本
Nginx日志自动归档备份shell脚本log
容器化nginx日志分割、定时压缩、定时删除脚本,生产环境亲测无问题
原文链接:https://blog.csdn.net/m0_37814112/article/details/119391879?spm=1001.2014.3001.5501 说明:一键生产nginx https自签证书脚本,真实有效!
nginx自动化安装shell脚本
本文介绍了使用shell脚本对Nginx日志进行切分的示例代码,分享给大家,具体如下: 1.日志格式 默认的日志格式: main log_format main '$remote_addr - $remote_user [$time_local] $request ' $status $body_bytes...
下面是我在做优化时候,经常用到的一段shell 脚本。 这个也可以算是,统计web页面的slowpage 慢访问页面,象mysql slowquery
: 为限制 Nginx日志文件大小增加,文件过大,导致无法收缩日志,在配置好的nginx的安装目录下,可以采用批处理文件对日志,根据实际需要的时间进行自动切割,本脚本以天为单位进行保存。对于日志备份功能,因存储...
windows 下nginx 日志切割 结合windows任务计划,实现每天备份日志,并reopen nginx
NULL 博文链接:https://0001111.iteye.com/blog/1188587
下面分享一下我用Shell编写的分析Nginx日志的脚本,它可以快速得出排名最前的网 站和IP等,内容如下所示: Most of the ip: ------------------------------------------- 220 59.41.24.48 178 59.41.24.80 172 ...