下面是 Elasticsearch、Logstash、Kibana(ELK)環境搭建的具體操作步驟:
- 安裝 Java
ELK 是基于 Java 編寫的,因此需要先安裝 Java。建議安裝 Java 8 或以上版本。
- 下載并安裝 Elasticsearch
Elasticsearch 是一個基于 Lucene 的搜索引擎,用于存儲、搜索和分析數據。官網地址:https://www.elastic.co/downloads/elasticsearch
下載后解壓縮,然后進入解壓縮后的目錄,啟動 Elasticsearch:
cd elasticsearch-7.8.0/bin/
./elasticsearch
- 下載并安裝 Logstash
Logstash 是一個開源的數據管道,用于將不同來源的數據收集到 Elasticseach 中。官網地址:https://www.elastic.co/downloads/logstash
下載后解壓縮,然后進入解壓縮后的目錄,啟動 Logstash:
cd logstash-7.8.0/bin/
./logstash -f logstash.conf
其中,logstash.conf 是 Logstash 的配置文件,需要自己創建。
- 下載并安裝 Kibana
Kibana 是一個基于 Web 的界面,用于查詢和可視化 Elasticsearch 中的數據。官網地址:https://www.elastic.co/downloads/kibana
下載后解壓縮,然后進入解壓縮后的目錄,啟動 Kibana:
cd kibana-7.8.0/bin/
./kibana
- 訪問 Kibana 界面
在瀏覽器中訪問 http://localhost:5601,即可打開 Kibana 界面。
- 配置 Logstash
在 Logstash 中,需要配置輸入(input)、過濾器(filter)和輸出(output)三個部分。其中,input 用于從不同來源收集數據,filter 用于過濾和修改數據,output 用于將數據發送到 Elasticsearch 中。
下面是一個簡單的配置文件示例:
input {file {path => "data/access.log"start_position => "beginning"sincedb_path => "/dev/null"}
}
filter {grok {match => { "message" => "%{COMBINEDAPACHELOG}" }}date {match => [ "timestamp" , "dd/MMM/yyyy:HH:mm:ss Z" ]}
}
output {elasticsearch { hosts => ["localhost:9200"] }stdout { codec => rubydebug }
}
這個配置文件的作用是從 access.log 文件中讀取日志數據,然后使用 grok 過濾器和 date 過濾器,解析日志中的字段和時間,最后將數據發送到 Elasticsearch 中。
- 在 Kibana 中查詢和可視化數據
使用 Kibana 查詢和可視化數據非常方便,可以通過界面上的工具進行操作。在開始之前,需要先創建一個索引模式,指定在 Elasticsearch 中的數據類型和字段。
在 Kibana 界面上,點擊左邊菜單欄中的 Management,選擇 Index Patterns,然后點擊 Create index pattern 按鈕。按照提示操作,最終創建好索引模式后,就可以在 Discover 和 Visualize 界面上查詢和可視化數據了。
以上就是 Elasticsearch、Logstash、Kibana 環境搭建的具體操作步驟。