ELK 企業實戰7

ELK+kafka+filebeat企業內部日志分析系統

1、組件介紹

1、Elasticsearch:

是一個基于Lucene的搜索服務器。提供搜集、分析、存儲數據三大功能。它提供了一個分布式多用戶能力的全文搜索引擎,基于RESTful web接口。Elasticsearch是用Java開發的,并作為Apache許可條款下的開放源碼發布,是當前流行的企業級搜索引擎。設計用于云計算中,能夠達到實時搜索,穩定,可靠,快速,安裝使用方便。

2、Logstash:

主要是用來日志的搜集、分析、過濾日志的工具。用于管理日志和事件的工具,你可以用它去收集日志、轉換日志、解析日志并將他們作為數據提供給其它模塊調用,例如搜索、存儲等。

3、Kibana:

是一個優秀的前端日志展示框架,它可以非常詳細的將日志轉化為各種圖表,為用戶提供強大的數據可視化支持,它能夠搜索、展示存儲在 Elasticsearch 中索引數據。使用它可以很方便的用圖表、表格、地圖展示和分析數據。

4、Kafka:

? 數據緩沖隊列。作為消息隊列解耦合處理過程,同時提高了可擴展性。具有峰值處理能力,使用消息隊列能夠使關鍵組件頂住突發的訪問壓力,而不會因為突發的超負荷的請求而完全崩潰。

  • 1.發布和訂閱記錄流,類似于消息隊列或企業消息傳遞系統。
  • 2.以容錯持久的方式存儲記錄流。
  • 3.處理記錄發生的流。
5、Filebeat:

? 隸屬于Beats,輕量級數據收集引擎。基于原先 Logstash-fowarder 的源碼改造出來。換句話說:Filebeat就是新版的 Logstash-fowarder,也會是 ELK Stack 在 Agent 的第一選擇,目前Beats包含四種工具:

  • 1.Packetbeat(搜集網絡流量數據)
  • 2.Metricbeat(搜集系統、進程和文件系統級別的 CPU 和內存使用情況等數據。通過從操作系統和服務收集指標,幫助您監控服務器及其托管的服務。)
  • 3.Filebeat(搜集文件數據)
  • 4.Winlogbeat(搜集 Windows 事件日志數據)

2、環境介紹

注:以下為環境所需所有服務器,配置為測試環境配置。

安裝軟件主機名IP地址系統版本配置
Elasticsearch/Logstash/kibanaElk10.3.145.14centos7.5.18042核4G
ElasticsearchEs110.3.145.56centos7.5.18042核3G
ElasticsearchEs210.3.145.57centos7.5.18042核3G
zookeeper/kafkaKafka110.3.145.41centos7.5.18041核2G
zookeeper/kafkaKafka210.3.145.42centos7.5.18041核2G
zookeeper/kafkaKafka310.3.145.43centos7.5.18041核2G
Filebeat

3、版本說明

Elasticsearch: 7.13.2
Logstash: 7.13.2
Kibana: 7.13.2
Kafka: 2.11-1
Filebeat: 7.13.2
相應的版本最好下載對應的插件

4、搭建架構

Untitled1

1、日志數據由filebate進行收集,定義日志位置,定義kafka集群,定義要傳給kafka的那個topic
2、kafka接受到數據后,端口為9092,等待消費
3、logstash消費kafka中的數據,對數據進行搜集、分析,根據輸入條件,過濾條件,輸出條件處理后,將數據傳輸給es集群
4、es集群接受數據后,搜集、分析、存儲
5、kibana提供可視化服務,將es中的數據展示。

相關地址:

官網地址:https://www.elastic.co

官網搭建:https://www.elastic.co/guide/index.html

5、實施部署

1、 Elasticsearch集群部署
  • 服務器
安裝軟件主機名IP地址系統版本配置
ElasticsearchElk10.3.145.14centos7.5.18042核4G
ElasticsearchEs110.3.145.56centos7.5.18042核3G
ElasticsearchEs210.3.145.57centos7.5.18042核3G
  • 軟件版本:elasticsearch-7.13.2.tar.gz
  • 示例節點:10.3.145.14
1、安裝配置jdk
可以自行安裝,es安裝包中自帶了jdk
2、安裝配置ES
(1)創建運行ES的普通用戶
[root@elk ~]# useradd es
[root@elk ~]# echo "******" | passwd --stdin "es"
(2)安裝配置ES
[root@elk ~]# tar zxvf /usr/local/package/elasticsearch-7.13.2-linux-x86_64.tar.gz -C /usr/local/
[root@elk ~]# mv /usr/local/elasticsearch-7.13.2 /usr/local/es
[root@elk ~]# vim /usr/local/es/config/elasticsearch.yml
cluster.name: bjbpe01-elk
cluster.initial_master_nodes: ["192.168.1.101","192.168.1.102","192.168.1.103"] # 單節點模式這里的地址只填寫本機地址
node.name: elk01
node.master: true
node.data: true
path.data: /data/elasticsearch/data
path.logs: /data/elasticsearch/logs
bootstrap.memory_lock: false
bootstrap.system_call_filter: false
network.host: 0.0.0.0
http.port: 9200
transport.tcp.port: 9300
# 單節點模式下,將discovery開頭的行注釋
discovery.seed_hosts: ["192.168.1.102","192.168.1.103"]
discovery.zen.minimum_master_nodes: 2
discovery.zen.ping_timeout: 150s
discovery.zen.fd.ping_retries: 10
client.transport.ping_timeout: 60s
http.cors.enabled: true
http.cors.allow-origin: "*"# 由于我們的筆記本性能有限,如果要使用單節點多實例的話,添加在原有配置中添加
node.max_local_storage_nodes:  這個配置限制了單節點上可以開啟的ES存儲實例的個數

配置項含義:

cluster.name    集群名稱,各節點配成相同的集群名稱。
cluster.initial_master_nodes 集群ip,默認為空,如果為空則加入現有集群,第一次需配置
node.name       節點名稱,各節點配置不同。
node.master     指示某個節點是否符合成為主節點的條件。
node.data       指示節點是否為數據節點。數據節點包含并管理索引的一部分。
path.data       數據存儲目錄。
path.logs       日志存儲目錄。
bootstrap.memory_lock       內存鎖定,是否禁用交換,測試環境建議改為false。
bootstrap.system_call_filter    系統調用過濾器。
network.host    綁定節點IP。
http.port       rest api端口。
discovery.seed_hosts    提供其他 Elasticsearch 服務節點的單點廣播發現功能,這里填寫除了本機的其他ip
discovery.zen.minimum_master_nodes  集群中可工作的具有Master節點資格的最小數量,官方的推薦值是(N/2)+1,其中N是具有master資格的節點的數量。
discovery.zen.ping_timeout      節點在發現過程中的等待時間。
discovery.zen.fd.ping_retries        節點發現重試次數。
http.cors.enabled               是否允許跨源 REST 請求,用于允許head插件訪問ES。
http.cors.allow-origin              允許的源地址。
(3)設置JVM堆大小 #7.0默認為4G
[root@elk ~]# sed -i 's/## -Xms4g/-Xms4g/' /usr/local/es/config/jvm.options  
[root@elk ~]# sed -i 's/## -Xmx4g/-Xmx4g/' /usr/local/es/config/jvm.options

注意:
確保堆內存最小值(Xms)與最大值(Xmx)的大小相同,防止程序在運行時改變堆內存大小。
如果系統內存足夠大,將堆內存最大和最小值設置為31G,因為有一個32G性能瓶頸問題。
堆內存大小不要超過系統內存的50%

(4)創建ES數據及日志存儲目錄
[root@elk ~]# mkdir -p /data/elasticsearch/data       (/data/elasticsearch)
[root@elk ~]# mkdir -p /data/elasticsearch/logs       (/log/elasticsearch)
(5)修改安裝目錄及存儲目錄權限
[root@elk ~]# chown -R es.es /data/elasticsearch
[root@elk ~]# chown -R es.es /usr/local/es
3、系統優化
(1)增加最大文件打開數

永久生效方法:

[root@elk ~]# echo "* soft nofile 65536" >> /etc/security/limits.conf
(2)增加最大進程數
[root@elk ~]# echo "* soft nproc 65536" >> /etc/security/limits.conf
* soft nofile 65536
* hard nofile 131072
* soft nproc 4096
* hard nproc 4096
更多的參數調整可以直接用這個
(3)增加最大內存映射數
[root@elk ~]# echo "vm.max_map_count=262144" >> /etc/sysctl.conf
[root@elk ~]# sysctl -p

啟動如果報下列錯誤

memory locking requested for elasticsearch process but memory is not locked
elasticsearch.yml文件
bootstrap.memory_lock : false
/etc/sysctl.conf文件
vm.swappiness=0錯誤:
max file descriptors [4096] for elasticsearch process is too low, increase to at least [65536]意思是elasticsearch用戶擁有的客串建文件描述的權限太低,知道需要65536個解決:切換到root用戶下面,[root@elk ~]# vim /etc/security/limits.conf在最后添加
* hard nofile 65536
* hard nproc 65536
重新啟動elasticsearch,還是無效?
必須重新登錄啟動elasticsearch的賬戶才可以,例如我的賬戶名是elasticsearch,退出重新登錄。
另外*也可以換為啟動elasticsearch的賬戶也可以,* 代表所有,其實比較不合適啟動還會遇到另外一個問題,就是
max virtual memory areas vm.max_map_count [65530] is too low, increase to at least [262144]
意思是:elasticsearch用戶擁有的內存權限太小了,至少需要262114。這個比較簡單,也不需要重啟,直接執行
sysctl -w vm.max_map_count=262144
就可以了
4、啟動ES
  [root@elk ~]# su - es -c "cd /usr/local/es && nohup bin/elasticsearch &"

測試:瀏覽器訪問http://10.3.145.14:9200
ELK6.5+Beats6.5+Kafka2.1.0集群搭建

5.安裝配置head監控插件 (只在第一臺es部署)
  • 服務器
安裝軟件主機名IP地址系統版本配置
Elasticsearch-head-masterElk10.3.145.14centos7.5.18042核4G
(1)安裝node
[root@elk ~]# wget https://npm.taobao.org/mirrors/node/latest-v10.x/node-v10.0.0-linux-x64.tar.gz
[root@elk ~]# tar -zxf node-v10.0.0-linux-x64.tar.gz –C /usr/local
[root@elk ~]# echo "
NODE_HOME=/usr/local/node-v10.0.0-linux-x64
PATH=\$NODE_HOME/bin:\$PATH
export NODE_HOME PATH
" >>/etc/profile
[root@elk ~]# source /etc/profile
[root@elk ~]# node --version   #檢查node版本號
(2)下載head插件
[root@elk ~]# wget https://github.com/mobz/elasticsearch-head/archive/master.zip[root@elk ~]# unzip -d /usr/local elasticsearch-head-master.zip
(3)安裝grunt
[root@elk ~]# cd /usr/local/elasticsearch-head-master
[root@elk elasticsearch-head-master]# npm install -g grunt-cli
[root@elk elasticsearch-head-master]# grunt -version  #檢查grunt版本號
(4)修改head源碼

[root@elk ~]# vi /usr/local/elasticsearch-head-master/Gruntfile.js +99
image-20200109194143461
添加hostname,注意在上一行末尾添加逗號,hostname 不需要添加逗號

[root@elk ~]# vim /usr/local/elasticsearch-head-master/_site/app.js +4388

截屏2020-01-09下午7.38.10
原本是http://localhost:9200 ,如果head和ES不在同一個節點,注意修改成ES的IP地址

(5)下載head必要的文件
[root@elk ~]# wget https://github.com/Medium/phantomjs/releases/download/v2.1.1/phantomjs-2.1.1-linux-x86_64.tar.bz2
[root@elk ~]# yum -y install bzip2
[root@elk ~]# mkdir /tmp/phantomjs
[root@elk ~]# mv phantomjs-2.1.1-linux-x86_64.tar.bz2 /tmp/phantomjs/
[root@elk ~]# chmod 777 /tmp/phantomjs -R
(6)運行head
[root@elk ~]# cd /usr/local/elasticsearch-head-master/
[root@elk elasticsearch-head-master]# npm install 
[root@elk elasticsearch-head-master]# nohup grunt server &
[root@elk elasticsearch-head-master]# ss -tnlpnpm install 執行錯誤解析:
npm ERR! code ELIFECYCLE
npm ERR! errno 1
npm ERR! phantomjs-prebuilt@2.1.16 install: `node install.js`
npm ERR! Exit status 1
npm ERR! 
npm ERR! Failed at the phantomjs-prebuilt@2.1.16 install script.
npm ERR! This is probably not a problem with npm. There is likely additional logging output above.npm ERR! A complete log of this run can be found in:
npm ERR!     /root/.npm/_logs/2021-04-21T09_49_34_207Z-debug.log解決:
[root@elk elasticsearch-head-master]# npm install phantomjs-prebuilt@2.1.16 --ignore-scripts  # 具體的版本按照上述報錯修改
(7)測試

訪問http://10.3.145.14:9100
ELK6.5+Beats6.5+Kafka2.1.0集群搭建

2、 Kibana部署
  • 服務器
安裝軟件主機名IP地址系統版本配置
KibanaElk10.3.145.14centos7.5.18042核4G
軟件版本:nginx-1.14.2、kibana-7.13.2-linux-x86_64.tar.gz
1. 安裝配置Kibana
(1)安裝
[root@elk ~]# tar zxf kibana-7.13.2-linux-x86_64.tar.gz -C /usr/local/
(2)配置
[root@elk ~]# echo '
server.port: 5601
server.host: "10.3.145.14"
elasticsearch.hosts: ["http://10.3.145.14:9200"]
kibana.index: ".kibana"
i18n.locale: "zh-CN"
'>>/usr/local/kibana-7.13.2-linux-x86_64/config/kibana.yml

配置項含義:

server.port kibana服務端口,默認5601
server.host kibana主機IP地址,默認localhost
elasticsearch.url   用來做查詢的ES節點的URL,默認http://localhost:9200
kibana.index        kibana在Elasticsearch中使用索引來存儲保存的searches, visualizations和dashboards,默認.kibana
(3)啟動
[root@elk ~]# cd /usr/local/kibana-7.13.2-linux-x86_64/
[root@elk ~]# nohup ./bin/kibana --allow-root &
2. 安裝配置Nginx反向代理
(1)配置YUM源:
[root@elk ~]# rpm -ivh <http://nginx.org/packages/centos/7/noarch/RPMS/nginx-release-centos-7-0.el7.ngx.noarch.rpm>
(2)安裝:

[root@elk ~]# yum install -y nginx httpd-tools
注意:httpd-tools用于生成nginx認證訪問的用戶密碼文件

(3)配置反向代理
[root@elk ~]# cat /etc/nginx/nginx.conf
user  nginx;
worker_processes  4;
error_log  /var/log/nginx/error.log;
pid        /var/run/nginx.pid;
worker_rlimit_nofile 65535;events {worker_connections  65535;use epoll;
}http {include       mime.types;default_type  application/octet-stream;log_format  main  '$remote_addr - $remote_user [$time_local] "$request" ''$status $body_bytes_sent "$http_referer" ''"$http_user_agent" "$http_x_forwarded_for"';access_log  /var/log/nginx/access.log  main;server_names_hash_bucket_size 128;autoindex on;sendfile        on;tcp_nopush     on;tcp_nodelay on;keepalive_timeout  120;fastcgi_connect_timeout 300;fastcgi_send_timeout 300;fastcgi_read_timeout 300;fastcgi_buffer_size 64k;fastcgi_buffers 4 64k;fastcgi_busy_buffers_size 128k;fastcgi_temp_file_write_size 128k;#gzip模塊設置gzip on; #開啟gzip壓縮輸出gzip_min_length 1k;    #最小壓縮文件大小gzip_buffers 4 16k;    #壓縮緩沖區gzip_http_version 1.0;    #壓縮版本(默認1.1,前端如果是squid2.5請使用1.0)gzip_comp_level 2;    #壓縮等級gzip_types text/plain application/x-javascript text/css application/xml;    #壓縮類型,默認就已經包含textml,所以下面就不用再寫了,寫上去也不會有問題,但是會有一個warn。gzip_vary on;#開啟限制IP連接數的時候需要使用#limit_zone crawler $binary_remote_addr 10m;#tips:#upstream bakend{#定義負載均衡設備的Ip及設備狀態}{#    ip_hash;#    server 127.0.0.1:9090 down;#    server 127.0.0.1:8080 weight=2;#    server 127.0.0.1:6060;#    server 127.0.0.1:7070 backup;#}#在需要使用負載均衡的server中增加 proxy_pass http://bakend/;server {listen       80;server_name  172.16.244.28;#charset koi8-r;# access_log  /var/log/nginx/host.access.log  main;access_log off;location / {  auth_basic "Kibana";   #可以是string或off,任意string表示開啟認證,off表示關閉認證。auth_basic_user_file /etc/nginx/passwd.db;   #指定存儲用戶名和密碼的認證文件。proxy_pass http://172.16.244.28:5601;proxy_set_header Host $host:5601;  proxy_set_header X-Real-IP $remote_addr;  proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;  proxy_set_header Via "nginx";  }location /status { stub_status on; #開啟網站監控狀態 access_log /var/log/nginx/kibana_status.log; #監控日志 auth_basic "NginxStatus"; } location /head/{auth_basic "head";auth_basic_user_file /etc/nginx/passwd.db;proxy_pass http://172.16.244.25:9100/;proxy_set_header Host $host:9100;proxy_set_header X-Real-IP $remote_addr;proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;proxy_set_header Via "nginx";}  # redirect server error pages to the static page /50x.htmlerror_page   500 502 503 504  /50x.html;location = /50x.html {root   html;}}
}
(4)配置授權用戶和密碼
[root@elk ~]# htpasswd -cm /etc/nginx/passwd.db kibana
(5)啟動nginx
[root@elk ~]# systemctl start nginx

瀏覽器訪問http://10.3.145.14 剛開始沒有任何數據,會提示你創建新的索引。
ELK6.5+Beats6.5+Kafka2.1.0集群搭建

3、 Kafka部署
  • 服務器
安裝軟件主機名IP地址系統版本配置
zookeeper/kafkaKafka110.3.145.41centos7.5.18041核2G
zookeeper/kafkaKafka210.3.145.42centos7.5.18041核2G
zookeeper/kafkaKafka310.3.145.43centos7.5.18041核2G
  • 軟件版本:jdk-8u121-linux-x64.tar.gz、kafka_2.11-2.0.0.tgz
  • 示例節點:10.3.145.41
1.安裝配置jdk8
(1)Kafka、Zookeeper(簡稱:ZK)運行依賴jdk8
[root@kafka1 ~]# tar zxvf /usr/local/package/jdk-8u121-linux-x64.tar.gz -C /usr/local/
[root@kafka1 ~]# echo '
JAVA_HOME=/usr/local/jdk1.8.0_121
PATH=$JAVA_HOME/bin:$PATH
export JAVA_HOME PATH
' >>/etc/profile
[root@kafka1 ~]# source /etc/profile
2.安裝配置ZK

Kafka運行依賴ZK,Kafka官網提供的tar包中,已經包含了ZK,這里不再額下載ZK程序。

(1)安裝
[root@kafka1 ~]# tar zxvf /usr/local/package/kafka_2.11-2.0.0.tgz -C /usr/local/
(2)配置
[root@kafka1 ~]# echo '
dataDir=/opt/data/zookeeper/data 
dataLogDir=/opt/data/zookeeper/logs
clientPort=2181 
tickTime=2000 
initLimit=20 
syncLimit=10 
server.1=10.3.145.41:2888:3888             //kafka集群IP:Port .1為id 3處要對應
server.2=10.3.145.42:2888:3888
server.3=10.3.145.43:2888:3888
'> /usr/local/kafka_2.11-2.0.0/config/zookeeper.properties

配置項含義:

dataDir ZK數據存放目錄。
dataLogDir  ZK日志存放目錄。
clientPort  客戶端連接ZK服務的端口。
tickTime        ZK服務器之間或客戶端與服務器之間維持心跳的時間間隔。
initLimit       允許follower(相對于Leaderer言的“客戶端”)連接并同步到Leader的初始化連接時間,以tickTime為單位。當初始化連接時間超過該值,則表示連接失敗。
syncLimit   Leader與Follower之間發送消息時,請求和應答時間長度。如果follower在設置時間內不能與leader通信,那么此follower將會被丟棄。
server.1=172.16.244.31:2888:3888    2888是follower與leader交換信息的端口,3888是當leader掛了時用來執行選舉時服務器相互通信的端口。
創建data、log目錄
[root@kafka1 ~]# mkdir -p /opt/data/zookeeper/{data,logs}
創建myid文件
[root@kafka1 ~]# echo 1 > /opt/data/zookeeper/data/myid
3.配置Kafka
(1)配置
[root@kafka1 ~]# echo '
broker.id=1
listeners=PLAINTEXT://10.3.145.41:9092
num.network.threads=3
num.io.threads=8
socket.send.buffer.bytes=102400
socket.receive.buffer.bytes=102400
socket.request.max.bytes=104857600
log.dirs=/opt/data/kafka/logs
num.partitions=6
num.recovery.threads.per.data.dir=1
offsets.topic.replication.factor=2
transaction.state.log.replication.factor=1
transaction.state.log.min.isr=1
log.retention.hours=168
log.segment.bytes=536870912
log.retention.check.interval.ms=300000
zookeeper.connect=10.3.145.41:2181,10.3.145.42:2181,10.3.145.43:2181
zookeeper.connection.timeout.ms=6000
group.initial.rebalance.delay.ms=0
' >/usr/local/kafka_2.11-2.0.0/config/server.properties

配置項含義:

broker.id   每個server需要單獨配置broker id,如果不配置系統會自動配置。
listeners       監聽地址,格式PLAINTEXT://IP:端口。
num.network.threads 接收和發送網絡信息的線程數。
num.io.threads          服務器用于處理請求的線程數,其中可能包括磁盤I/O。
socket.send.buffer.bytes    套接字服務器使用的發送緩沖區(SO_SNDBUF)
socket.receive.buffer.bytes 套接字服務器使用的接收緩沖區(SO_RCVBUF)
socket.request.max.bytes        套接字服務器將接受的請求的最大大小(防止OOM)
log.dirs        日志文件目錄。
num.partitions  partition數量。
num.recovery.threads.per.data.dir       在啟動時恢復日志、關閉時刷盤日志每個數據目錄的線程的數量,默認1。
offsets.topic.replication.factor        偏移量話題的復制因子(設置更高保證可用),為了保證有效的復制,偏移話題的復制因子是可配置的,在偏移話題的第一次請求的時候可用的broker的數量至少為復制因子的大小,否則要么話題創建失敗,要么復制因子取可用broker的數量和配置復制因子的最小值。
log.retention.hours 日志文件刪除之前保留的時間(單位小時),默認168
log.segment.bytes   單個日志文件的大小,默認1073741824
log.retention.check.interval.ms 檢查日志段以查看是否可以根據保留策略刪除它們的時間間隔。
zookeeper.connect   ZK主機地址,如果zookeeper是集群則以逗號隔開。
zookeeper.connection.timeout.ms     連接到Zookeeper的超時時間。
創建log目錄
[root@kafka1 ~]# mkdir -p /opt/data/kafka/logs
4、其他kafka節點配置

只需把配置好的安裝包直接分發到其他節點,然后修改ZK的myid,Kafka的broker.id和listeners就可以了。

5、啟動、驗證ZK集群
(1)啟動

在三個節點依次執行:

[root@kafka1 ~]# cd /usr/local/kafka_2.11-2.0.0/
[root@kafka1 ~]# nohup bin/zookeeper-server-start.sh config/zookeeper.properties &
(2)驗證

查看ZK配置

下載nmap
[root@kafka1 ~]# yum install nmap
[root@kafka1 ~]# echo conf | nc 127.0.0.1 2181
clientPort=2181
dataDir=/opt/data/zookeeper/data/version-2
dataLogDir=/opt/data/zookeeper/logs/version-2
tickTime=2000
maxClientCnxns=60
minSessionTimeout=4000
maxSessionTimeout=40000
serverId=1
initLimit=20
syncLimit=10
electionAlg=3
electionPort=3888
quorumPort=2888
peerType=0

查看ZK狀態

[root@kafka1 ~]# echo stat |nc 127.0.0.1 2181
Zookeeper version: 3.4.13-2d71af4dbe22557fda74f9a9b4309b15a7487f03, built on 06/29/2018 00:39 GMT
Clients:/127.0.0.1:51876[0](queued=0,recved=1,sent=0)Latency min/avg/max: 0/0/0
Received: 2
Sent: 1
Connections: 1
Outstanding: 0
Zxid: 0x0
Mode: follower
Node count: 4

查看端口

[root@kafka1 ~]# lsof -i:2181
COMMAND   PID USER   FD   TYPE DEVICE SIZE/OFF NODE NAME
java    15002 root   98u  IPv4  43385      0t0  TCP *:eforward (LISTEN)
6、啟動、驗證Kafka
(1)啟動

在三個節點依次執行:

[root@kafka1 ~]# cd /usr/local/kafka_2.11-2.0.0/
[root@kafka1 ~]# nohup bin/kafka-server-start.sh config/server.properties &
(2)驗證

在10.3.145.41上創建topic

[root@kafka1 ~]# bin/kafka-topics.sh --create --zookeeper localhost:2181 --replication-factor 1 --partitions 1 --topic testtopic
Created topic "testtopic".

查詢10.3.145.41上的topic

[root@kafka1 ~]# bin/kafka-topics.sh --zookeeper 10.3.145.41:2181 --list               
testtopic

查詢10.3.145.42上的topic

[root@kafka1 ~]# bin/kafka-topics.sh --zookeeper 10.3.145.42:2181 --list 
testtopic

查詢10.3.145.43上的topic

[root@kafka1 ~]# bin/kafka-topics.sh --zookeeper 10.3.145.43:2181 --list 
testtopic

模擬消息生產和消費
發送消息到10.3.145.41

[root@kafka1 ~]# bin/kafka-console-producer.sh --broker-list 10.3.145.41:9092 --topic testtopic  
>Hello World!

從10.3.145.42接受消息

[root@kafka1 ~]# bin/kafka-console-consumer.sh --bootstrap-server  10.3.145.41:9092 --topic testtopic --from-beginning 
Hello World!
7、監控 Kafka Manager

Kafka-manager 是 Yahoo 公司開源的集群管理工具。

可以在 Github 上下載安裝:https://github.com/yahoo/kafka-manager

億級 ELK 日志平臺構建實踐

如果遇到 Kafka 消費不及時的話,可以通過到具體 cluster 頁面上,增加 partition。Kafka 通過 partition 分區來提高并發消費速度

億級 ELK 日志平臺構建實踐

4、 Logstash部署
  • 服務器
安裝軟件主機名IP地址系統版本配置
LogstashElk10.3.145.14centos7.5.18042核4G
  • 軟件版本:logstash-7.13.2.tar.gz
1.安裝配置Logstash

Logstash運行同樣依賴jdk,本次為節省資源,故將Logstash安裝在了10.3.145.14節點。

(1)安裝
[root@elk ~]# tar zxf /usr/local/package/logstash-7.13.2.tar.gz -C /usr/local/
(2)測試文件

標準輸入=>標準輸出

1、啟動logstash

2、logstash啟動后,直接進行數據輸入

3、logstash處理后,直接進行返回

input {stdin {}
}
output {stdout {codec => rubydebug}
}

標準輸入=>標準輸出及es集群

1、啟動logstash

2、啟動后直接在終端輸入數據

3、數據會由logstash處理后返回并存儲到es集群中

input {stdin {}
}
output {stdout {codec => rubydebug}elasticsearch {hosts => ["10.3.145.14","10.3.145.56","10.3.145.57"]index => 'logstash-debug-%{+YYYY-MM-dd}'}
}

端口輸入=>字段匹配=>標準輸出及es集群

1、由tcp 的8888端口將日志發送到logstash

2、數據被grok進行正則匹配處理

3、處理后,數據將被打印到終端并存儲到es

input {tcp {port => 8888}
}
filter {grok {match => {"message" => "%{DATA:key} %{NUMBER:value:int}"} }
}
output {stdout {codec => rubydebug}elasticsearch {hosts => ["10.3.145.14","10.3.145.56","10.3.145.57"]index => 'logstash-debug-%{+YYYY-MM-dd}'}
}
# yum install -y nc
# free -m |awk 'NF==2{print $1,$3}' |nc logstash_ip 8888

文件輸入=>字段匹配及修改時間格式修改=>es集群

1、直接將本地的日志數據拉去到logstash當中

2、將日志進行處理后存儲到es

input {file {type => "nginx-log"path => "/var/log/nginx/error.log"start_position => "beginning" # 此參數表示在第一次讀取日志時從頭讀取# sincedb_path => "自定義位置"  # 此參數記錄了讀取日志的位置,默認在 data/plugins/inputs/file/.sincedb*}
}
filter {grok {match => { "message" => '%{DATESTAMP:date} [%{WORD:level}] %{DATA:msg} client: %{IPV4:cip},%{DATA}"%{DATA:url}"%{DATA}"%{IPV4:host}"'}    }    date {match => [ "timestamp" , "dd/MMM/YYYY:HH:mm:ss Z" ]    }    
}output {if [type] == "nginx-log" {elasticsearch {hosts => ["192.168.249.139:9200","192.168.249.149:9200","192.168.249.159:9200"]index => 'logstash-audit_log-%{+YYYY-MM-dd}'}}}

filebeat => 字段匹配 => 標準輸出及es

input {beats {port => 5000}
}
filter {grok {match => {"message" => "%{IPV4:cip}"}	}
}
output {elasticsearch {hosts => ["192.168.249.139:9200","192.168.249.149:9200","192.168.249.159:9200"]index => 'test-%{+YYYY-MM-dd}'}stdout { codec => rubydebug }
}
(3)配置

創建目錄,我們將所有input、filter、output配置文件全部放到該目錄中。

[root@elk ~]# mkdir -p /usr/local/logstash-7.13.2/etc/conf.d
[root@elk ~]# vim /usr/local/logstash-7.13.2/etc/conf.d/input.conf
input { 
kafka {type => "audit_log"codec => "json"topics => "nginx"decorate_events => truebootstrap_servers => "10.3.145.41:9092, 10.3.145.42:9092, 10.3.145.43:9092"}
}[root@elk ~]# vim /usr/local/logstash-7.13.2/etc/conf.d/filter.conf
filter {json { # 如果日志原格式是json的,需要用json插件處理source => "message"target => "nginx" # 組名}
}[root@elk ~]# vim /usr/local/logstash-7.13.2/etc/conf.d/output.conf
output {if [type] == "audit_log" {elasticsearch {hosts => ["10.3.145.14","10.3.145.56","10.3.145.57"]index => 'logstash-audit_log-%{+YYYY-MM-dd}'}}}

(3)啟動

[root@elk ~]# cd /usr/local/logstash-7.13.2
[root@elk ~]# nohup bin/logstash -f etc/conf.d/  --config.reload.automatic &
5、Filebeat 部署

為什么用 Filebeat ,而不用原來的 Logstash 呢?

原因很簡單,資源消耗比較大。

由于 Logstash 是跑在 JVM 上面,資源消耗比較大,后來作者用 GO 寫了一個功能較少但是資源消耗也小的輕量級的 Agent 叫 Logstash-forwarder。

后來作者加入 elastic.co 公司, Logstash-forwarder 的開發工作給公司內部 GO 團隊來搞,最后命名為 Filebeat。

Filebeat 需要部署在每臺應用服務器上,可以通過 Salt 來推送并安裝配置。

  • 服務器
安裝軟件主機名IP地址系統版本配置
filebeatKafka310.3.145.43centos7.5.18041核2G
  • 軟件版本 filebeat-7.13.2-x86_64.rpm
(1)下載
[root@kafka3 ~]# curl -L -O https://artifacts.elastic.co/downloads/beats/filebeat/filebeat-7.13.2-x86_64.rpm
(2)解壓
[root@kafka3 ~]# yum install -y filebeat-7.13.2-x86_64.rpm
(3)修改配置

修改 Filebeat 配置,支持收集本地目錄日志,并輸出日志到 Kafka 集群中

[root@kafka3 ~]# vim filebeat.yml
filebeat.inputs:
- type: logenabled: truepaths:- /var/log/nginx/access.log
output.logstash:hosts: ["10.3.145.14:5000"]output.kafka:   hosts: ["10.3.145.41:9092","10.3.145.42:9092","10.3.145.43:9092"]topic: 'nginx'# 注意,如果需要重新讀取,請刪除/data/registry目錄 

Filebeat 6.0 之后一些配置參數變動比較大,比如 document_type 就不支持,需要用 fields 來代替等等。

(4)啟動
[root@kafka3 ~]# ./filebeat -e -c filebeat.yml
(5)配置nginx
因為日志格式的切割需要json格式,kibana中會報錯 error decoding json,所以在這里我們將nginx的日志格式修改為json格式。[root@kafka3 ~]# vim /etc/nginx/nginx.conf
#    log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '
#                      '$status $body_bytes_sent "$http_referer" '
#                      '"$http_user_agent" "$http_x_forwarded_for"';log_format main        '{"user_ip":"$http_x_real_ip","lan_ip":"$remote_addr","log_time":"$time_iso8601","user_req":"$request","http_code":"$status","body_bytes_sents":"$body_bytes_sent","req_time":"$request_time","user_ua":"$http_user_agent"}';access_log  /var/log/nginx/access.log  main;

image-20200110143653750

.logstash:
hosts: [“10.3.145.14:5000”]

output.kafka:
hosts: [“10.3.145.41:9092”,“10.3.145.42:9092”,“10.3.145.43:9092”]
topic: ‘nginx’

注意,如果需要重新讀取,請刪除/data/registry目錄


Filebeat 6.0 之后一些配置參數變動比較大,比如 document_type 就不支持,需要用 fields 來代替等等。##### (4)啟動```shell
[root@kafka3 ~]# ./filebeat -e -c filebeat.yml
(5)配置nginx
因為日志格式的切割需要json格式,kibana中會報錯 error decoding json,所以在這里我們將nginx的日志格式修改為json格式。[root@kafka3 ~]# vim /etc/nginx/nginx.conf
#    log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '
#                      '$status $body_bytes_sent "$http_referer" '
#                      '"$http_user_agent" "$http_x_forwarded_for"';log_format main        '{"user_ip":"$http_x_real_ip","lan_ip":"$remote_addr","log_time":"$time_iso8601","user_req":"$request","http_code":"$status","body_bytes_sents":"$body_bytes_sent","req_time":"$request_time","user_ua":"$http_user_agent"}';access_log  /var/log/nginx/access.log  main;

[外鏈圖片轉存中…(img-cx6jVENl-1719491920553)]

本文來自互聯網用戶投稿,該文觀點僅代表作者本人,不代表本站立場。本站僅提供信息存儲空間服務,不擁有所有權,不承擔相關法律責任。
如若轉載,請注明出處:http://www.pswp.cn/diannao/38232.shtml
繁體地址,請注明出處:http://hk.pswp.cn/diannao/38232.shtml
英文地址,請注明出處:http://en.pswp.cn/diannao/38232.shtml

如若內容造成侵權/違法違規/事實不符,請聯系多彩編程網進行投訴反饋email:809451989@qq.com,一經查實,立即刪除!

相關文章

【linux】chmod修改文件權限詳解

目錄 一.linux中默認的文件權限 二.文件權限類別 三.chmod改變權限的兩種方式 一.linux中默認的文件權限 默認文件權限: 當你新建一個文件時&#xff0c;文件會有一個默認的權限&#xff0c;這個默認權限就是umask的值&#xff0c;umask一般默認是022&#xff0c;這個值設…

FastAPI教程——部署

部署 部署FastAPI應用程序相對容易。 部署是什么意思 部署應用程序意味著執行必要的步驟以使其可供用戶使用。 對于Web API來說&#xff0c;通常涉及將上傳到云服務器中&#xff0c;搭配一個性能和穩定性都不錯的服務器程序&#xff0c;以便你的用戶可以高效地訪問你的應用…

智慧校園-報修管理系統總體概述

智慧校園報修管理系統是專為優化教育機構內部維修報障流程而設計的信息化解決方案&#xff0c;它通過集成現代信息技術&#xff0c;為校園設施的維護管理帶來革新。該系統以用戶友好和高效運作為核心&#xff0c;確保了從報修請求提交到問題解決的每一個步驟都順暢無阻。 師生或…

分享畫布繪制矩形

簡介 實現功能&#xff0c;在畫布上繪制矩形&#xff0c;移動矩形。 在線演示 繪制矩形 實現代碼 <!DOCTYPE html><html><head> <title>繪制矩形</title> </head><body><div style"margin: 10px"><input typ…

FastDFS部署

版本介紹 安裝fastdfs共需要倆個安裝包 fastdfs-5.05.tar.gz libfastcommon-1.0.7.tar.gz編譯安裝 libfastcommon tar -xvf libfastcommon-1.0.7.tar.gz cd libfastcommon-1.0.7 make.sh make.sh install 3. 設置軟鏈接 libfastcommon.so默認安裝到了/usr/lib64/libfastcommon.…

探索AI視覺革新:深入目標檢測算法

一、目標檢測算法概述 1. 什么是目標檢測&#xff1f; 目標檢測是計算機視覺任務的一部分&#xff0c;其目標是在圖像或視頻中識別和定位特定物體的位置和類別。與簡單的圖像分類任務不同&#xff0c;目標檢測要求算法能夠準確地標記出圖像中每個物體的位置&#xff0c;通常用…

5-linux文件路徑與文件目錄系統

目錄 ①文件路徑 目錄跳轉 絕對路徑與相對路徑 ②文件目錄系統 目錄系統組成 目錄命名規則 命令補充 ls命令補充 file filename查看文件類型 less查看文本文件 ①文件路徑 目錄跳轉 pwd:查看當前工作目錄。 cd:改變目錄。 ls:列出目錄內容。 [root########## ~]# …

某易六月實習筆試

第一題 下面代碼需要更改的地方已指出。 解題思路 模擬題&#xff0c;用雙指針記錄雙方當前式神&#xff0c;再記錄一下當前誰先手&#xff0c;直到有一方指針越界。 把下面代碼now1變為now(now1)%2就行。 第二題 解題思路 01背包變種&#xff0c;只是背包的容量變為多個維度…

CLAY或許是今年最值得期待的3D生成模型,號稱質量最好+布線最好+支持的輸入模態最多+支持材質生成。

CLAY是一種大規模可控生成模型,用于創建高質量的3D資產,它結合了多分辨率變分自編碼器和簡化的潛在擴散變壓器,通過多種輸入形式生成詳細的3D幾何結構和物理渲染材質。 CLAY或許是今年最值得期待的3D生成模型,號稱質量最好+布線最好+支持的輸入模態最多+支持材質生成。 相…

vue2+three.js實現火焰效果

// 火焰getFireMaterial() {const vertex ${ShaderChunk.logdepthbuf_pars_vertex} bool isPerspectiveMatrix(mat4) {return true; } varying vec4 m_pos; varying vec2 vUv; varying vec3 _flame; uniform float uTime; vec2 hash( vec2 p ){p vec2( dot(p,vec2(150.1,350…

EDA期末復習——基礎知識

個人名片&#xff1a; &#x1f393;作者簡介&#xff1a;嵌入式領域優質創作者&#x1f310;個人主頁&#xff1a;妄北y &#x1f4de;個人QQ&#xff1a;2061314755 &#x1f48c;個人郵箱&#xff1a;[mailto:2061314755qq.com] &#x1f4f1;個人微信&#xff1a;Vir2025WB…

The dependencies of some of the beans in the application context form a cycle

The dependencies of some of the beans in the application context form a cycle: 出現這種問題&#xff0c;如果你用其他方法怎么都處理不掉&#xff0c;可以使用最后的方法&#xff1a; 解決方案&#xff1a; 在配置文件增添一行配置即可&#xff1a; properties 配置文件 …

Spring Boot中的版本兼容性處理

Spring Boot中的版本兼容性處理 大家好&#xff0c;我是免費搭建查券返利機器人省錢賺傭金就用微賺淘客系統3.0的小編&#xff0c;也是冬天不穿秋褲&#xff0c;天冷也要風度的程序猿&#xff01;今天我們來聊聊Spring Boot中的版本兼容性處理。Spring Boot的版本更新頻繁&…

Redis的使用

1 Redis屬于非關系型數據庫&#xff1a; 優勢&#xff1a;讀的速度快110000次/s 寫的速度81000次/s 支持持久化存儲 2 Redis的相關執行命令&#xff1a; 2-1 打開一個 cmd 窗口 使用 cd 命令切換目錄到 C:\redis 運行&#xff1a; redis-server.exe redis.windows.conf …

SaaS 出海:Databend Cloud 的定位與實踐

提到 “SaaS 出海”這個詞大家肯定并不陌生&#xff0c;SaaS 企業將業務拓展到海外市場已經成為許多 SaaS 公司的重要戰略方向。隨著企業對于靈活性、可擴展性以及成本效益需求的不斷增長&#xff0c; SaaS 模式提供了理想的解決方案。對于尋求出海機會的 SaaS 企業來說&#x…

神州信息與國科量子聯合進軍量子網絡應用服務市場(中國軍民兩用通信技術展覽會)

量子通信&#xff0c;智聯未來 —— 神州信息與國科量子共啟安全通信新紀元 在信息技術飛速發展的今天&#xff0c;信息安全已成為全球關注的焦點。神州數碼信息服務股份有限公司&#xff08;神州信息&#xff09;與國科量子通信網絡有限公司&#xff08;國科量子&#xff09;…

【地理庫 Turf.js】

非常全面的地理庫 &#xff0c; 這里枚舉一些比較常用&#xff0c;重點的功能&#xff0c; 重點功能 提供地理相關的類&#xff1a;包括點&#xff0c;線&#xff0c;面等類。 測量功能&#xff1a;點到線段的距離&#xff0c;點和線的關系等。 判斷功能&#xff1a; 點是否在…

phpMyAdmin 4.0.10 文件包含 -> getshell

phpMyAdmin 4.0.10 文件包含 -> getshell 前言&#xff1a;這里這個漏洞相對來說審計起來不是特別難&#xff0c;但是對于初學者還是有點挑戰性的&#xff0c;從zkaq web課過來的小伙伴想挑戰一下自己代碼審計能力的話&#xff0c;可以直接跳到最后下載源碼&#xff0c;聶風…

Python基礎小知識問答系列-隨機數相關

1. 問題&#xff1a; 如何生成x-y之間的隨機整數&#xff1f; 如何生成0-1之間的隨機浮點數&#xff1f; 如何生成x-y之間的隨機浮點數&#xff1f; 如何從列表中隨機獲取一個元素&#xff1f; 如何從列表中隨機獲取多個元素&#xff1f; 如…

代碼隨想錄訓練營第二十四天 78子集 90子集II

第一題&#xff1a; 原題鏈接&#xff1a;78. 子集 - 力扣&#xff08;LeetCode&#xff09; 思路&#xff1a; 本題很簡單&#xff0c;就是在每次遍歷的地方都要搜集結果。 終止條件&#xff1a;當前要收集的起始位置已經大于等于數組的大小的時候證明已經搜集到完成了。 …