为了账号安全,请及时绑定邮箱和手机立即绑定

企业shell脚本分析及切割apache日志实战荐

标签:
Java

企业shell脚本分析apache日志实战


一,分析apache日志

1,有一个文件shell.sh,内容如下:
[root@test3root]#catshell.sh
http://www.baidu.com/index.html
http://www.google.com/index.html
http://www.baidu.com/get.html
http://www.baidu.com/set.html
http://www.google.com/index.html
http://www.yahoo.com.cn/put.html
现要求将该文件中的域名截取出来,统计重复域名出现的次数,然后按次数进行降序排列,统计后的结果如下:
3www.baidu.com
2www.google.com
1www.yahoo.com.

sort将文件的每一行作为一个单位,相互比较,比较原则是从首字符向后,依次按ASCII码值进行比较,最后将他们按升序输出,uniq是去除紧挨着的相同的行只保留一行

[root@test3 ~]# awk -F "/"'{print $3}' shell.sh |sort |uniq  -c3 www.baidu.com2 www.google.com1 www.yahoo.com.cn



2,在apachelog中找出访问次数最多的10个IP

/usr/local/apache2/logs/access_log的格式如下

192.168.46.1-chen[21/Sep/2013:14:04:48+0800]"GET/phpmyadmin/themes/pmahomme/img/tab_hover_bg.pngHTTP/1.1"200502

[root@test3 ~]# awk '{print $1}' /usr/local/apache2/logs/access_log |sort|uniq -c|head -n 107 127.0.0.1228 192.168.46.1


3.在apache日志中找出访问次数最多的几个分钟

/usr/local/apache2/logs/access_log的格式如下

192.168.46.1-chen[21/Sep/2013:14:04:48+0800]"GET/phpmyadmin/themes/pmahomme/img/tab_hover_bg.pngHTTP/1.1"200502

[root@test3 ~]# awk '{print $4}' /usr/local/apache2/logs/access_log|cut -c 14-18 |sort|uniq -c|sort -nr|head33 13:5530 13:3519 13:2215 13:5415 13:4515 13:3815 13:3613 13:0410 12:599 13:18


4.在apache日志中找到访问最多的页面

/usr/local/apache2/logs/access_log的格式如下

192.168.46.1-chen[21/Sep/2013:14:04:48+0800]"GET/phpmyadmin/themes/pmahomme/img/tab_hover_bg.pngHTTP/1.1"200502

[root@test3 ~]# awk '{print $7}' /usr/local/apache2/logs/access_log |sort|uniq -c|sort -nr|head46 /44 /phpmyadmin/10 /phpmyadmin/js/jquery/jquery-1.6.2.js?ts=13593768479 /phpmyadmin/js/update-location.js?ts=13593768479 /phpmyadmin/js/jquery/jquery-ui-1.8.16.custom.js?ts=13593768479 /phpmyadmin/js/jquery/jquery.qtip-1.0.0-rc3.js?ts=13593768479 /phpmyadmin/js/functions.js?ts=13593768478 /phpmyadmin/js/cross_framing_protection.js?ts=13593768477 /phpmyadmin/themes/pmahomme/jquery/jquery-ui-1.8.16.custom.css7 /phpmyadmin/themes/pmahomme/img/sprites.png


5,在apache日志中找出访问次数最多(负载最重)的几个时间段(以分钟为单位),然后在看看这些时间哪几个IP访问的最多?

/usr/local/apache2/logs/access_log的格式如下

192.168.46.1-chen[21/Sep/2013:14:04:48+0800]"GET/phpmyadmin/themes/pmahomme/img/tab_hover_bg.pngHTTP/1.1"200502

如下是时间段的访问量情况[root@test3 ~]# awk '{print $4}' /usr/local/apache2/logs/access_log |cut -c  9-18 |uniq -c|sort -nr|head33 2013:13:5530 2013:13:3519 2013:13:2215 2013:13:5415 2013:13:4515 2013:13:3815 2013:13:3610 2013:12:599 2013:13:189 2013:13:16


6,apache相关的系统操作

1,查看apache进程:ps aux | grep httpd | grep -v grep | wc -l2,查看80端口的tcp连接:netstat -tan | grep "ESTABLISHED" | grep ":80" | wc -l3,通过日志查看当天ip连接数,过滤重复:cat access_log | grep "19/May/2011" | awk '{print $2}' | sort | uniq -c | sort -nr4,当天ip连接数最高的ip都在干些什么(原来是蜘蛛):cat access_log | grep "19/May/2011:00" | grep "61.135.166.230" | awk '{print $8}' | sort | uniq -c | sort -nr | head -n 105,当天访问页面排前10的url:cat access_log | grep "19/May/2010:00" | awk '{print $8}' | sort | uniq -c | sort -nr | head -n 106,用tcpdump嗅探80端口的访问看看谁最高tcpdump -i eth0 -tnn dst port 80 -c 1000 | awk -F"." '{print $1"."$2"."$3"."$4}' | sort | uniq -c | sort -nr接着从日志里查看该ip在干嘛:cat access_log | grep 220.181.38.183| awk '{print $1"/t"$8}' | sort | uniq -c | sort -nr | less7,查看某一时间段的ip连接数:grep "2006:0[7-8]" www20110519.log | awk '{print $2}' | sort | uniq -c| sort -nr | wc -l8,当前WEB服务器中联接次数最多的20条ip地址:netstat -ntu |awk '{print $5}' |sort | uniq -c| sort -n -r | head -n 209,查看日志中访问次数最多的前10个IPcat access_log |cut -d ' ' -f 1 |sort |uniq -c | sort -nr | awk '{print $0 }' | head -n 10 |less10,查看日志中出现100次以上的IPcat access_log |cut -d ' ' -f 1 |sort |uniq -c | awk '{if ($1 > 100) print $0}'|sort -nr |less11,查看最近访问量最高的文件cat access_log |tail -10000|awk '{print $7}'|sort|uniq -c|sort -nr|less12,查看日志中访问超过100次的页面cat access_log | cut -d ' ' -f 7 | sort |uniq -c | awk '{if ($1 > 100) print $0}' | less13,列出传输时间超过 30 秒的文件cat access_log|awk '($NF > 30){print $7}'|sort -n|uniq -c|sort -nr|head -2014,列出最最耗时的页面(超过60秒的)的以及对应页面发生次数cat access_log |awk '($NF > 60 && $7~//.php/){print $7}'|sort -n|uniq -c|sort -nr|head -100


二、日志切割
  安装cronolog
  CentOS6.0中编译安装Apache默认日志是不切割的,需要用用工具Cronnolog进行日志切割
  1.下载及安装
  wgethttp://cronolog.org/download/cronolog-1.6.2.tar.gz
  tarzxvfcronolog-1.6.2.tar.gz
  cdcronolog-1.6.2
  ./configure
  make&&makeinstall
  2.用which命令查看路径验证安装
  whichcronolog
  默认路径为:/usr/local/sbin/cronolog
  3.配置
  vi/usr/local/apache/conf/httpd.conf
  CustomLog“|/usr/local/sbin/cronolog/usr/local/apache/logs/access_%Y%m%d.log”combined定义访问日志
  ErrorLog“|/usr/local/sbin/cronolog/home/www/ex/log/error_%Y%m%d.log”定义错误日志
  保存配置文件后,重新加载或重启apache服务即可生效。
  servicehttpdrestart
  还有另外一种使用rotatelogs方法:
  Linux系统配置方法:
  将其改为
  ErrorLog"|/usr/local/apache/bin/rotatelogs/usr/local/apache/logs/%Y_%m_%d_error_log86400480"
  CustomLog"|/usr/local/apache/bin/rotatelogs/usr/local/apache/logs/%Y_%m_%d_access_log86400480"common
  Windows系统下配置方法:
  #ErrorLog"|bin/rotatelogs.exelogs/error-%y%m%d.log86400480"
  #CustomLog"|bin/rotatelogs.exelogs/access-%y%m%d.log86400480"common
  、apache日志切割
  辑Apache的主配置文件,更改内容如下:
  注释掉如下两行
  ErrorLoglogs/error_log
  CustomLoglogs/access_logcommon
  然后添加如下两行
  ErrorLog"|/usr/local/apache/bin/rotatelogs/usr/local/apache/logs/errorlog.%Y-%m-%d-%H_%M_%S2M+480"
  CustomLog"|/usr/local/apache/bin/rotatelogs/usr/local/apache/logs/accesslog.%Y-%m-%d-%H_%M_%S2M+480"common
  意义如下:
  errorlog.%Y-%m-%d-%H_%M_%S为生成日志的格式,类似于这样:errorlog.2010-04-15-11_32_30,以年月日时分秒为单位的,
  2M为日志的大小,即为日志达到多大后生成新的日志文件,支持的单位为K,M,G,本处为2M
  +480为时差,文件的时间为美国时间,中国的时差要比美国多8个小时也就是480分钟,所以要加上480分钟
  还有其他的设置方法如下:
  每天生成一个错误日志文件
  ErrorLog"|bin/rotatelogs.exe-llogs/error-%Y-%m-%d.log86400"
  其中86400为轮转的时间单位为秒
  参考:http://hi.baidu.com/jiaofu1127/blog/item/15fed5fa19895b47342acc4a.html
  参考:http://man.chinaunix.net/newsoft/ApacheMenual_CN_2.2new/programs/rotatelogs.html
  rotatelogs-滚动Apache日志的管道日志程序
  rotatelogs是一个配合Apache管道日志功能使用的简单程序。举例:
  CustomLog"|bin/rotatelogs/var/logs/logfile86400"common
  此配置会建立文件"/var/logs/logfile.nnnn",其中的nnnn是名义上的日志启动时的系统时间(此时间总是滚动时间的倍数,可以用于cron脚本的同步)。在滚动时间到达时(在此例中是24小时以后),会产生一个新的日志。
  CustomLog"|bin/rotatelogs/var/logs/logfile5M"common
  此配置会在日志文件大小增长到5兆字节时滚动该日志。
  ErrorLog"|bin/rotatelogs/var/logs/errorlog.%Y-%m-%d-%H_%M_%S5M"
  此配置会在错误日志大小增长到5兆字节时滚动该日志,日志文件名后缀会按照如下格式创建:errorlog.YYYY-mm-dd-HH_MM_SS。
  语法
  rotatelogs[-l]logfile[rotationtime[offset]]|[filesizeM]
  选项
  -l
  使用本地时间代替GMT时间作为时间基准。注意:在一个改变GMT偏移量(比如夏令时)的环境中使用-l会导致不可预料的结果。
  logfile
  它加上基准名就是日志文件名。如果logfile中包含"%",则它会被视为用于strftime()的格式字符串;否则它会被自动加上以秒为单位的".nnnnnnnnnn"后缀。这两种格式都表示新的日志开始使用的时间。
  rotationtime
  日志文件滚动的以秒为单位的间隔时间。
  offset
  相对于UTC的时差的分钟数。如果省略,则假定为"0"并使用UTC时间。比如,要指定UTC时差为"-5小时"的地区的当地时间,则此参数应为"-300"。
  filesizeM
  指定以filesizeM文件大小滚动,而不是按照时间或时差滚动。
  可移植性
  下列日志文件格式字符串可以为所有的strftime()实现所支持,见各种扩展库对应的strftime()的手册。


%A

星期名全称(本地的)

%a

3个字符的星期名(本地的)

%B

月份名的全称(本地的)

%b

3个字符的月份名(本地的)

%c

日期和时间(本地的)

%d

2位数的一个月中的日期数

%H

2位数的小时数(24小时制)

%I

2位数的小时数(12小时制)


%j

3位数的一年中的日期数


%M

2位数的分钟数


%m

2位数的月份数


%p

am/pm12小时制的上下午(本地的)


%S

2位数的秒数


%U

2位数的一年中的星期数(星期天为一周的第一天)


%W

2位数的一年中的星期数(星期一为一周的第一天)


%w

1位数的星期几(星期天为一周的第一天)


%X

时间(本地的)


%x

日期(本地的)


%Y

4位数的年份


%y

2位数的年份


%Z

时区名


%%

符号"%"本身



点击查看更多内容
TA 点赞

若觉得本文不错,就分享一下吧!

评论

作者其他优质文章

正在加载中
  • 推荐
  • 评论
  • 收藏
  • 共同学习,写下你的评论
感谢您的支持,我会继续努力的~
扫码打赏,你说多少就多少
赞赏金额会直接到老师账户
支付方式
打开微信扫一扫,即可进行扫码打赏哦
今天注册有机会得

100积分直接送

付费专栏免费学

大额优惠券免费领

立即参与 放弃机会
意见反馈 帮助中心 APP下载
官方微信

举报

0/150
提交
取消