成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

如何分析Linux日志

系統 Linux 系統運維
本文介紹一些你現在就能做的基本日志分析例子(只需要搜索即可),還將涉及一些更高級的分析。對數據進行高級分析的例子包括生成匯總計數、對有效值進行過濾等等。首先會向你展示如何在命令行中使用多個不同的工具,然后展示了一個日志管理工具如何能自動完成大部分繁重工作從而使得日志分析變得簡單。

日志中有大量的信息需要你處理,盡管有時候想要提取并非想象中的容易。在這篇文章中我們會介紹一些你現在就能做的基本日志分析例子(只需要搜索即可)。我們還將涉及一些更高級的分析,但這些需要你前期努力做出適當的設置,后期就能節省很多時間。對數據進行高級分析的例子包括生成匯總計數、對有效值進行過濾,等等。

我們首先會向你展示如何在命令行中使用多個不同的工具,然后展示了一個日志管理工具如何能自動完成大部分繁重工作從而使得日志分析變得簡單。

用 Grep 搜索

搜索文本是查找信息最基本的方式。搜索文本最常用的工具是 grep。這個命令行工具在大部分 Linux 發行版中都有,它允許你用正則表達式搜索日志。正則表達式是一種用特殊的語言寫的、能識別匹配文本的模式。最簡單的模式就是用引號把你想要查找的字符串括起來。

正則表達式

這是一個在 Ubuntu 系統的認證日志中查找 “user hoover” 的例子:

  1. $ grep "user hoover" /var/log/auth.log
  2. Accepted password for hoover from 10.0.2.2 port 4792 ssh2
  3. pam_unix(sshd:session): session opened for user hoover by (uid=0)
  4. pam_unix(sshd:session): session closed for user hoover

構建精確的正則表達式可能很難。例如,如果我們想要搜索一個類似端口 “4792” 的數字,它可能也會匹配時間戳、URL 以及其它不需要的數據。Ubuntu 中下面的例子,它匹配了一個我們不想要的 Apache 日志。

  1. $ grep "4792" /var/log/auth.log
  2. Accepted password for hoover from 10.0.2.2 port 4792 ssh2
  3. 74.91.21.46 - - [31/Mar/2015:19:44:32 +0000] "GET /scripts/samples/search?q=4972 HTTP/1.0" 404 545 "-" "-”

環繞搜索

另一個有用的小技巧是你可以用 grep 做環繞搜索。這會向你展示一個匹配前面或后面幾行是什么。它能幫助你調試導致錯誤或問題的東西。B 選項展示前面幾行,A 選項展示后面幾行。舉個例子,我們知道當一個人以管理員員身份登錄失敗時,同時他們的 IP 也沒有反向解析,也就意味著他們可能沒有有效的域名。這非常可疑!

  1. $ grep -B 3 -A 2 'Invalid user' /var/log/auth.log
  2. Apr 28 17:06:20 ip-172-31-11-241 sshd[12545]: reverse mapping checking getaddrinfo for 216-19-2-8.commspeed.net [216.19.2.8] failed - POSSIBLE BREAK-IN ATTEMPT!
  3. Apr 28 17:06:20 ip-172-31-11-241 sshd[12545]: Received disconnect from 216.19.2.8: 11: Bye Bye [preauth]
  4. Apr 28 17:06:20 ip-172-31-11-241 sshd[12547]: Invalid user admin from 216.19.2.8
  5. Apr 28 17:06:20 ip-172-31-11-241 sshd[12547]: input_userauth_request: invalid user admin [preauth]
  6. Apr 28 17:06:20 ip-172-31-11-241 sshd[12547]: Received disconnect from 216.19.2.8: 11: Bye Bye [preauth]

Tail

你也可以把 grep 和 tail 結合使用來獲取一個文件的***幾行,或者跟蹤日志并實時打印。這在你做交互式更改的時候非常有用,例如啟動服務器或者測試代碼更改。

  1. $ tail -f /var/log/auth.log | grep 'Invalid user'
  2. Apr 30 19:49:48 ip-172-31-11-241 sshd[6512]: Invalid user ubnt from 219.140.64.136
  3. Apr 30 19:49:49 ip-172-31-11-241 sshd[6514]: Invalid user admin from 219.140.64.136

關于 grep 和正則表達式的詳細介紹并不在本指南的范圍,但 Ryan’s Tutorials 有更深入的介紹。

日志管理系統有更高的性能和更強大的搜索能力。它們通常會索引數據并進行并行查詢,因此你可以很快的在幾秒內就能搜索 GB 或 TB 的日志。相比之下,grep 就需要幾分鐘,在極端情況下可能甚至幾小時。日志管理系統也使用類似 Lucene 的查詢語言,它提供更簡單的語法來檢索數字、域以及其它。

用 Cut、 AWK、 和 Grok 解析

命令行工具

Linux 提供了多個命令行工具用于文本解析和分析。當你想要快速解析少量數據時非常有用,但處理大量數據時可能需要很長時間。

Cut

cut 命令允許你從有分隔符的日志解析字段。分隔符是指能分開字段或鍵值對的等號或逗號等。

假設我們想從下面的日志中解析出用戶:

  1. pam_unix(su:auth): authentication failure; logname=hoover uid=1000 euid=0 tty=/dev/pts/0 ruser=hoover rhost= user=root

我們可以像下面這樣用 cut 命令獲取用等號分割后的第八個字段的文本。這是一個 Ubuntu 系統上的例子:

  1. $ grep "authentication failure" /var/log/auth.log | cut -d '=' -f 8
  2. root
  3. hoover
  4. root
  5. nagios
  6. nagios

AWK

另外,你也可以使用 awk,它能提供更強大的解析字段功能。它提供了一個腳本語言,你可以過濾出幾乎任何不相干的東西。

例如,假設在 Ubuntu 系統中我們有下面的一行日志,我們想要提取登錄失敗的用戶名稱:

  1. Mar 24 08:28:18 ip-172-31-11-241 sshd[32701]: input_userauth_request: invalid user guest [preauth]

你可以像下面這樣使用 awk 命令。首先,用一個正則表達式 /sshd.*invalid user/ 來匹配 sshd invalid user 行。然后用 { print $9 } 根據默認的分隔符空格打印第九個字段。這樣就輸出了用戶名。

  1. $ awk '/sshd.*invalid user/ { print $9 }' /var/log/auth.log
  2. guest
  3. admin
  4. info
  5. test
  6. ubnt

你可以在 Awk 用戶指南 中閱讀更多關于如何使用正則表達式和輸出字段的信息。

#p#

日志管理系統

日志管理系統使得解析變得更加簡單,使用戶能快速的分析很多的日志文件。他們能自動解析標準的日志格式,比如常見的 Linux 日志和 Web 服務器日志。這能節省很多時間,因為當處理系統問題的時候你不需要考慮自己寫解析邏輯。

下面是一個 sshd 日志消息的例子,解析出了每個 remoteHost 和 user。這是 Loggly 中的一張截圖,它是一個基于云的日志管理服務。

[[143599]]

你也可以對非標準格式自定義解析。一個常用的工具是 Grok,它用一個常見正則表達式庫,可以解析原始文本為結構化 JSON。下面是一個 Grok 在 Logstash 中解析內核日志文件的事例配置:

  1. filter{
  2. grok {
  3. match => {"message" => "%{CISCOTIMESTAMP:timestamp} %{HOST:host} %{WORD:program}%{NOTSPACE} %{NOTSPACE}%{NUMBER:duration}%{NOTSPACE} %{GREEDYDATA:kernel_logs}"
  4. }
  5. }

下圖是 Grok 解析后輸出的結果:

[[143600]]

用 Rsyslog 和 AWK 過濾

過濾使得你能檢索一個特定的字段值而不是進行全文檢索。這使你的日志分析更加準確,因為它會忽略來自其它部分日志信息不需要的匹配。為了對一個字段值進行搜索,你首先需要解析日志或者至少有對事件結構進行檢索的方式。

如何對應用進行過濾

通常,你可能只想看一個應用的日志。如果你的應用把記錄都保存到一個文件中就會很容易。如果你需要在一個聚集或集中式日志中過濾一個應用就會比較復雜。下面有幾種方法來實現:

  1. 用 rsyslog 守護進程解析和過濾日志。下面的例子將 sshd 應用的日志寫入一個名為 sshd-message 的文件,然后丟棄事件以便它不會在其它地方重復出現。你可以將它添加到你的 rsyslog.conf 文件中測試這個例子。

    1. :programname, isequal, sshd /var/log/sshd-messages
    2. &~
  2. 用類似 awk 的命令行工具提取特定字段的值,例如 sshd 用戶名。下面是 Ubuntu 系統中的一個例子。

    1. $ awk '/sshd.*invalid user/ { print $9 }' /var/log/auth.log
    2. guest
    3. admin
    4. info
    5. test
    6. ubnt
  3. 用日志管理系統自動解析日志,然后在需要的應用名稱上點擊過濾。下面是在 Loggly 日志管理服務中提取 syslog 域的截圖。我們對應用名稱 “sshd” 進行過濾,如維恩圖圖標所示。

    [[143601]]

如何過濾錯誤

一個人最希望看到日志中的錯誤。不幸的是,默認的 syslog 配置不直接輸出錯誤的嚴重性,也就使得難以過濾它們。

這里有兩個解決該問題的方法。首先,你可以修改你的 rsyslog 配置,在日志文件中輸出錯誤的嚴重性,使得便于查看和檢索。在你的 rsyslog 配置中你可以用 pri-text 添加一個 模版,像下面這樣:

  1. "<%pri-text%> : %timegenerated%,%HOSTNAME%,%syslogtag%,%msg%n"

這個例子會按照下面的格式輸出。你可以看到該信息中指示錯誤的 err。

  1. <authpriv.err> : Mar 11 18:18:00,hoover-VirtualBox,su[5026]:, pam_authenticate: Authentication failure

你可以用 awk 或者 grep 檢索錯誤信息。在 Ubuntu 中,對這個例子,我們可以用一些語法特征,例如 . 和 >,它們只會匹配這個域。

  1. $ grep '.err>' /var/log/auth.log
  2. <authpriv.err> : Mar 11 18:18:00,hoover-VirtualBox,su[5026]:, pam_authenticate: Authentication failure

你的第二個選擇是使用日志管理系統。好的日志管理系統能自動解析 syslog 消息并抽取錯誤域。它們也允許你用簡單的點擊過濾日志消息中的特定錯誤。

下面是 Loggly 中一個截圖,顯示了高亮錯誤嚴重性的 syslog 域,表示我們正在過濾錯誤:

[[143602]]

責任編輯:火鳳凰 來源: Linux中國
相關推薦

2018-11-26 08:40:43

2014-09-18 14:56:34

CentOSSARG

2020-03-09 08:00:08

ApacheWebserver日志

2019-09-16 13:48:03

Linux管理日志

2023-12-10 21:35:45

Linux服務器日志分析

2015-10-27 15:54:29

message日志分析Linux

2015-10-19 09:47:39

history企業日志Linux

2010-01-27 09:58:59

Linuxunix程序日志

2022-10-28 16:42:04

Linuxcrontab日志

2015-09-25 11:03:14

數據中心日志分析

2011-09-09 18:16:18

WindowsLinux

2011-06-30 09:30:57

rsyslogLinux日志紅帽企業級

2017-02-14 08:36:56

2011-11-21 15:35:49

日志分析

2021-08-30 13:08:54

Linux實時監控日志文件

2019-10-21 08:56:36

Linux日志文件拆分

2016-12-15 08:30:02

Linux命令

2015-08-14 09:47:36

Linux日志基礎

2013-11-01 10:43:35

日志分析Awstats實戰Apache

2023-02-16 09:52:46

journalctlsystemdLinux
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 成人免费视频观看视频 | 亚洲精品色 | 国产在线精品一区二区三区 | 亚洲精品一区二区三区中文字幕 | 香蕉久久久 | 成人免费看黄网站在线观看 | 亚洲一级毛片 | 瑟瑟视频在线看 | 国产91在线播放 | 人人澡人人爱 | 精品欧美视频 | 天天操天天天干 | 成年免费大片黄在线观看一级 | 国产欧美日韩一区二区三区在线观看 | 亚洲国产aⅴ成人精品无吗 亚洲精品久久久一区二区三区 | 一a级片| 日日操av| 欧美free性 | 国产精品久久 | 男女视频在线观看网站 | 成人做爰www免费看 午夜精品久久久久久久久久久久 | 国产黄色电影 | 久久国产一区二区三区 | 观看毛片| 成人日韩| 国产日韩一区二区三免费 | 91啪亚洲精品| 亚洲一区二区在线视频 | 天天天天操 | 欧美国产亚洲一区二区 | 亚洲高清在线播放 | 精品国产乱码久久久久久中文 | 在线观看亚洲专区 | 国产精品久久久久久久久久久久 | 国产精品精品视频一区二区三区 | 精品国产免费一区二区三区演员表 | 中文字幕av网 | 天堂av中文在线 | 伊人一二三| 第四色播日韩第一页 | 日本免费在线观看视频 |