K8S的Kafka監控(Prometheus+Grafana)

對於部署在K8S上的Kafka來說,Prometheus+

Grafana是常用的監控方案,今天就來實戰通過Prometheus+Grafana監控K8S環境的Kafka;

準備工作

今天聚焦的是Kafka監控,因此需要K8S、Helm、Kafka、Prometheus、Grafana等服務都已就緒,下面提供了一些鏈接,在您做相關部署時可以作為參考:

搭建K8S:《 》搭建Helm:《 》搭建Prometheus和Grafana:《 》部署Kafka:《 》

版本信息

Kubernetes:1.15Kubernetes宿主機:CentOS Linux release 7.7.1908NFS服務:IP地址192.168.50.135,文件夾/volume1/nfs-storageclass-testHelm:2.16.1Kafka:2.0.1Zookeeper:3.5.5Prometheus:2.0.0Grafana:5.0.0

準備完畢就可以開始實戰了;

確認kafka-exporter參數

即將部署的kafka-exporter要從kafka取得數據,因此要準備kafka-exporter參數;

查看kafka的服務中TYPE是
ClusterIP的那個,如下圖紅框所示:


上述紅框中的服務名字是kafka、端口是9092,因此稍後再kafka-exporter中配置的kafka信息就是kafka:9092

實際操作

添加Helm倉庫(該倉庫中有我們需要的kafka-exporter):helm repo add gkarthiks https://gkarthiks.github.io/helm-charts下載kafka-exporter:helm fetch gkarthiks/prometheus-kafka-exporter解壓下載的chart文件:tar -zxvf prometheus-kafka-exporter-0.1.0.tgz進入解壓後的目錄:cd prometheus-kafka-exporter修改values.yaml文件,如下圖紅框,kafka:9092就是同一namespace下訪問kafka的地址:

在values.yaml文件所在目錄執行:helm install --name-template kafka-exporter -f values.yaml . --namespace kafka-test (kafka的namespace是kafka-test,這裡的namespace要和kafka保持一致)查看服務和pod是否就緒:

此時我們部署好了kafka-exporter,能給prometheus提供監控數據了,但prometheus並不知道要來這裡採集數據,因此接下來要配置prometheus;確認kafka-exporter服務的訪問地址,prometheus採集數據要用到,名字和端口如下圖紅框所示,因此可以拼接處跨namespace的訪問地址:kafka-exporter-prometheus-kafka-exporter.kafka-test.svc.cluster.local:9308


如果您是參照《 》部署的prometheus,請打開部署時下載的configmap.yaml文件,裡面是prometheus的配置,如果是其他途徑部署的,請按照自己的部署情況找到prometheus.yml的位置;
configmap.yaml中增加下圖紅框中的內容,這樣prometheus就可以採集kafka-exporter的數據了:

使得配置生效:kubectl apply -f configmap.yaml此時的prometheus容器用的還是舊配置,為了讓配置生效,要把prometheus的pod刪除,這樣K8S自動創建的新pod就用上了新的配置,找出prometheus的pod:kubectl get pods -n kube-system

刪除舊的pod:kubectl delete pod prometheus-68545d4fd8-f5q2w -n kube-system等待新的pod被自動創建;接下來登錄Grafana,配置監控頁面,如下圖,做模板導入操作:

在導入模板的頁面輸入編號7589

選擇數據源的時候,要選prometheus,如下圖:

此時如果您的kafka有消息的收發,就可以立即看到數據了:

至此,K8S環境下的kafka監控已經部署完成,希望本文能給您一些參考;