一、常用日志分析工具及操作步驟
- ?ELK Stack(Elasticsearch + Logstash + Kibana)?
核心操作?
日志收集?:通過Logstash配置日志輸入(如Nginx日志文件),使用grok插件解析日志格式。
數據存儲?:將解析后的日志存入Elasticsearch,利用其分布式搜索能力快速索引數據。
可視化統計?:在Kibana中創建直方圖或聚合查詢,篩選指定時間范圍(如“過去1小時”),統計request字段的總數。
示例命令(Logstash配置)?
conf
Copy Code
input { file { path => “/var/log/nginx/access.log” } }
filter { grok { match => { “message” => “%{COMBINEDAPACHELOG}” } } }
output { elasticsearch { hosts => [“localhost:9200”] } }
- ?命令行工具(AWK/Grep)?
核心操作?
按時間過濾日志?:使用grep提取特定時間段內的日志(如2025-04-22T10:00:00至2025-04-22T11:00:00)。
統計請求總數?:通過wc -l或awk計數。
示例命令?
bash
Copy Code
統計1小時內總請求量
grep “2025-04-22T10:” access