手把手教你搭建 ELK 實時日誌分析平臺

本篇文章主要是手把手教你搭建 ELK 實時日誌分析平臺,那麼,ELK 到底是什麼呢?

ELK 是三個開源項目的首字母縮寫,這三個項目分別是:Elasticsearch、Logstash 和 Kibana。

  • Elasticsearch 是一個搜索和分析引擎
  • Logstash 是服務器端數據處理管道,能夠同時從多個來源採集數據,轉換數據,然後將數據發送到諸如 Elasticsearch 等存儲庫中。
  • Kibana 則可以讓用戶在 Elasticsearch 中使用圖形和圖表對數據進行可視化
手把手教你搭建 ELK 實時日誌分析平臺

Elasticsearch 的核心是搜索引擎,所以用戶開始將其用於日誌用例,並希望能夠輕鬆地對日誌進行採集和可視化。有鑑於此,Elastic 引入了強大的採集管道 Logstash 和靈活的可視化工具 Kibana。

ELK日誌系統數據流圖如下:

手把手教你搭建 ELK 實時日誌分析平臺

簡短了解 ELK 是個啥後,讓我們一起動手搭建 ELK 實時日誌分析平臺,首先安裝 Elasticsearch。

注:ELK 環境搭建版本很關鍵,建議統一版本,避免錯誤無處下手,我在這裡選用的是 7.1.0 版本。

ElasticSearch 介紹與安裝

ElasticSearch 的介紹與安裝在上一篇文章已經講過了,這裡就不進行贅述了,大家可以點擊下方鏈接查看:

https://www.tianheyu.top/archives/elasticsearch-install

如果你已經瞭解並安裝好 Elasticsearch,那麼就跟著我一起往下一步進發:瞭解並安裝 Kibana。

Kibana 介紹與安裝

這部分主要講解如何下載並安裝 Kibana,以及如何安裝 Kibana 插件,同時會針對 Kibana 的界面進行簡單的介紹。

首先讓我們來看下 Kibana 究竟是何物?

什麼是 Kibana?

Kibana 是為 Elasticsearch 設計的開源分析和可視化平臺,你可以使用 Kibana 來搜索,查看存儲在 Elasticsearch 索引中的數據並與之交互,你可以很容易實現高級的數據分析和可視化,以圖標的形式展現出來。

在簡單瞭解了 Kibana 後,讓我們來到 Kibana 的下載網站 https://www.elastic.co/cn/downloads/kibana ,目前使用的是 Windows 系統,因此下載 Windows 版本的 Kibana 下載包 kibana-7.1.0-windows-x86_64.zip。

手把手教你搭建 ELK 實時日誌分析平臺

運行 Kibana

下載完成後在本地解壓,如果需要對 Kibana 做一些定製,可以在 config 目錄下 編輯 kibana.yml 文件,在運行 Kibana 之前需要先運行 ElasticSearch(以下簡稱 ES),因為 Kibana 是基於 ES 運行的,現在進入 bin 目錄下打開 kibana.bat 就可以運行 Kibana 了,我們現在打開瀏覽器,Kibana 是運行在 5601 端口上的,因此打開 http://localhost:5601,打開後會出現如下頁面:

手把手教你搭建 ELK 實時日誌分析平臺

導入樣例數據,查看 Dashboard

進入首頁後會提示我們可以添加一些測試數據,ES 在 Kibana 開箱即用的版本中,已經為我們準備了三種樣例數據,電商網站的訂單,航空公司的飛行記錄以及 WEB 網站的日誌,我們可以點擊 Add data,把他們添加進來,添加完成後,我們可以打開 Dashboards 界面,就可以看到系統已經為我們創建了數據的 Dashboard。

手把手教你搭建 ELK 實時日誌分析平臺

第一個是電商的利潤報表,我們可以打開來看一下:

手把手教你搭建 ELK 實時日誌分析平臺

在 Dashboard 中,我們可以將多套可視結果整合至單一頁面內,而後提供搜索查詢或者點擊可視結果內的某元素指定過濾條件,從而實現結果過濾,Dashboard 能夠幫助我們更全面地瞭解總體日誌內容,並將各可視結果同日志關聯起來,以上就是 Kibana 的 Dashboard 功能。

Dev Tools

接下來介紹 Kibana 裡面非常有用的工具 Dev Tools,其實就是可以很方便地在 Kibana 中執行 ES 中的一些 API,比如我們上文講到的檢測有哪些節點在運行: GET /_cat/nodes?v,這樣我們就能在 Kibana 中運行 ES 命令了。

手把手教你搭建 ELK 實時日誌分析平臺

另外,Kibana 的 Dev Tools 還有許多的快捷菜單操作,比如 Ctrl + / 可以查看 API 幫助文檔,其他的大家可以去自行摸索。

安裝與查看插件

Kibana 可以通過插件的方式來提供一些 Kibana 中的特定應用或者增強圖表展示的功能,Kibana 安裝插件和 ES 非常相似。

輸入 kibana-plugin install kibana-plugin install https://github.com/sivasamyk/logtrail/releases/download/v0.1.31/logtrail-7.1.0-0.1.31.zip 就可以下載 LogTrail 插件了。

在 cmd 中輸入 kibana-plugin list 可以查看本機已安裝的 Kibana 插件。

手把手教你搭建 ELK 實時日誌分析平臺

如果想移除插件可以使用 kibana-plugin remove logtrail 命令來進行移除插件。

到此為止,我們就下載並安裝完成 Kibana,並對 Kibana 主要功能進行簡單介紹,還介紹了 Dev Tools,大家可以自己在本地進行實踐操作下。

目前就差 ELK 三兄弟的最後一個:Logstash,讓我們一起學習下。

Logstash 介紹與安裝

這部分主要是下載並安裝 Logstash,並通過 Logstash 將測試數據集導入到 ES 中。

話不多說,首先讓我們來了解下 Logstash 是個啥?

什麼是 Logstash?

Logstash 是開源的服務器端數據處理管道,能夠同時從多個來源採集數據,轉換數據,然後將數據發送到您最喜歡的存儲庫中。

Logstash 能夠動態地採集、轉換和傳輸數據,不受格式或複雜度的影響。利用 Grok 從非結構化數據中派生出結構,從 IP 地址解碼出地理座標,匿名化或排除敏感字段,並簡化整體處理過程。

數據往往以各種各樣的形式,或分散或集中地存在於很多系統中。Logstash 支持各種輸入選擇 ,可以在同一時間從眾多常用來源捕捉事件,能夠以連續的流式傳輸方式,輕鬆地從您的日誌、指標、Web 應用、數據存儲以及各種 AWS 服務採集數據。

再瞭解過後,讓我們去下載安裝 Logstash。

安裝 Logstash

還是來到 Logstash 的官網,進入到下載頁面 https://www.elastic.co/cn/downloads/logstash,下載的時候注意要和 ES 和 Kibana 的版本相同,這裡下載的為 7.1.0 版本 logstash-7.1.0.zip。

手把手教你搭建 ELK 實時日誌分析平臺

下載後進行解壓,也可以進入 conf 目錄下修改 logstash.conf 進行配置,運行的時候可以通過指定配置文件 logstash -f logstash.conf 就可以執行數據的插入和轉換的工作。

再安裝完成之後,讓我們來使用 Logstash 往 ES 中導入數據。

用 Logstash 導入 ES

下面我們來導入測試數據集,首先修改 logstash.conf 文件,內容為:

<code>input {
file {
path => ["D:/SoftWare/logstash-7.1.0/csv/movies.csv"]
start_position => "beginning"
sincedb_path => "D:/SoftWare/logstash-7.1.0/csv/null"
}
}
filter {
csv {
separator => ","
columns => ["id","content","genre"]
}

mutate {
split => { "genre" => "|" }
remove_field => ["path", "host","@timestamp","message"]
}

mutate {

split => ["content", "("]
add_field => { "title" => "%{[content][0]}"}
add_field => { "year" => "%{[content][1]}"}
}

mutate {
convert => {
"year" => "integer"
}
strip => ["title"]
remove_field => ["path", "host","@timestamp","message","content"]
}

}
output {
elasticsearch {
hosts => "http://localhost:9200"
index => "movies"
document_id => "%{id}"
}
stdout {}
}
/<code>

測試數據集來自 Movielens :https://grouplens.org/datasets/movielens/,大家可以前往下載。配置文件中的 path 根據自己下載的測試文件路徑去修改。另外,配置文件的邏輯將在以後的文章中進行講解。

現在來執行命令 logstash -f logstash.conf 來把數據導入 ES。當看到數據打印到控制檯時,數據也正在被寫入 ES 中。

手把手教你搭建 ELK 實時日誌分析平臺

到此為止,我們就成功安裝了 Logstash,並通過 Logstash 將測試數據集寫入 ES,同時我們的 ELK 實時日誌分析平臺就搭建完成了。

補充

在通過 Logstash 將測試數據集寫入 ES 後,小夥伴會發現 movies 索引狀態為 yellow,不用擔心,yellow 代表有副本分片沒有被分配。

因為只在本機之啟動了一個節點,而 movies 的索引設置了一個主分片一個副本分片,主副分片是無法分配在一個節點上的。

解決方法:修改索引 setting,將副本 replica 設置成 0,或者為集群增加一個節點,狀態就會變為 green。

總結

本文主要了解了什麼是 ELK,然後通過實際操作和大家一起搭建了一個 ELK 日誌分析平臺,如果在搭建過程中有什麼問題,歡迎留言交流討論。

如果 ELK 安裝包或者測試數據集下載速度慢的話,可以在【武培軒】公眾號回覆 elk資料即可獲得。

參考文獻

https://www.elastic.co/guide/en/kibana/7.1/index.html

https://www.elastic.co/guide/en/logstash/7.1/index.html

Elasticsearch核心技術與實戰


分享到:


相關文章: