1. 首页
  2. 技术知识

Zabbix对Kafka topic积压数据监控的问题(bug优化)

目录

    简述分区自动发现获取监控项“test-group/test/分区X”的Lag最终优化后脚本接入Zabbix

      1.Zabbix配置文件2.Zabbix自动发现3.监控项配置4.告警信息

简述

《Zabbix对Kafka topic积压数据监控》一文的目的是通过Zabbix自动发现实现对多个消费者组的Topic及Partition的Lag进行监控。因在实际监控中发现有问题,为给感兴趣的读者不留坑,特通过此文对监控进行优化调整。

分区自动发现

  1. # 未优化前的计算方式:
  2. # 自动发现配置文件
  3. vim consumer-groups.conf
  4. #按消费者组(Group)|Topic格式,写入自动发现配置文件
  5. test-group|test
  6. # 执行脚本自动发现指定消费者和topic的分区
  7. bash consumer-groups.sh discovery
  8. {
  9.     “data”: [
  10.         { “{#GROUP}”:”test-group”, “{#TOPICP}”:”test”, “{#PARTITION}”:”0″ },
  11.         { “{#GROUP}”:”test-group”, “{#TOPICP}”:”test”, “{#PARTITION}”:”1″ },
  12.         { “{#GROUP}”:”test-group”, “{#TOPICP}”:”test”, “{#PARTITION}”:”3″ },
  13.         { “{#GROUP}”:”test-group”, “{#TOPICP}”:”test”, “{#PARTITION}”:”2″ }
  14.     ]
  15. }

复制代码 经过上线验证,当自动发现配置文件只有一个test-group|test是没有问题的,但当我们按需求再接入test-group|test1 (即test-group消费者组的第二个Topic)时,自动发现的结果如下:

  1. # 未优化前的计算方式:
  2. vim consumer-groups.conf
  3. #按消费者组(Group)|Topic格式,写入自动发现配置文件
  4. test-group|test
  5. test-group|test1
  6. # 执行脚本自动发现指定消费者和topic的分区
  7. bash consumer-groups.sh discovery
  8. {
  9.     “data”: [
  10.         { “{#GROUP}”:”test-group”, “{#TOPICP}”:”test”, “{#PARTITION}”:”0″ },
  11.         { “{#GROUP}”:”test-group”, “{#TOPICP}”:”test”, “{#PARTITION}”:”1″ },
  12.         { “{#GROUP}”:”test-group”, “{#TOPICP}”:”test”, “{#PARTITION}”:”3″ },
  13.         { “{#GROUP}”:”test-group”, “{#TOPICP}”:”test”, “{#PARTITION}”:”2″ }
  14.         { “{#GROUP}”:”test-group”, “{#TOPICP}”:”test1″, “{#PARTITION}”:”0″ },
  15.         { “{#GROUP}”:”test-group”, “{#TOPICP}”:”test2″, “{#PARTITION}”:”1″ },
  16.         { “{#GROUP}”:”test-group”, “{#TOPICP}”:”test3″, “{#PARTITION}”:”2″ }
  17.     ]
  18. }

复制代码 了解Zabbix自动发现格式的同学会发现,每个Topic的Partition会出现’,’,这种格式是不符合规范,这就是导致我们的监控项会出现问题,因此我们需要进一步修改脚本。

经修改后,最终效果应该如下:

  1. # 优化后的计算方式:
  2. vim consumer-groups.conf
  3. #按消费者组(Group)|Topic格式,写入自动发现配置文件
  4. test-group|test
  5. test-group|test1
  6. # 执行脚本自动发现指定消费者和topic的分区
  7. bash consumer-groups.sh discovery
  8. {
  9.     “data”: [
  10.         { “{#GROUP}”:”test-group”, “{#TOPICP}”:”test”, “{#PARTITION}”:”0″ },
  11.         { “{#GROUP}”:”test-group”, “{#TOPICP}”:”test”, “{#PARTITION}”:”1″ },
  12.         { “{#GROUP}”:”test-group”, “{#TOPICP}”:”test”, “{#PARTITION}”:”3″ },
  13.         { “{#GROUP}”:”test-group”, “{#TOPICP}”:”test”, “{#PARTITION}”:”2″ },
  14.         { “{#GROUP}”:”test-group”, “{#TOPICP}”:”test1″, “{#PARTITION}”:”0″ },
  15.         { “{#GROUP}”:”test-group”, “{#TOPICP}”:”test1″, “{#PARTITION}”:”1″ },
  16.         { “{#GROUP}”:”test-group”, “{#TOPICP}”:”test1″, “{#PARTITION}”:”2″ }
  17.     ]
  18. }

复制代码
获取监控项“test-group/test/分区X”的Lag

经过自动发现后的数据,我们可以进一步获取不同分区的lag

  1. # 优化后的计算方式:
  2. # test-group test分区0 lag
  3. bash consumer-groups.sh lag test-group test 0
  4. # test-group test分区1 lag
  5. bash consumer-groups.sh lag test-group test 1
  6. # test-group test1分区0 lag
  7. bash consumer-groups.sh lag test-group test1 0

复制代码 通过命令可以看到,我们的参数通过消费者组、Topic、Partition来获取最终的lag值,如果不加消费者区分,那么无法区分不同消费者组和不同Topic相应的lag结果:

  1. # 未优化前的计算方式:
  2. # 获取分区0 lag
  3. bash consumer-groups.sh lag 0
  4. # 获取分区1 lag
  5. bash consumer-groups.sh lag 1
  6. # 获取分区2 lag
  7. bash consumer-groups.sh lag 2
  8. # 获取分区3 lag
  9. bash consumer-groups.sh lag 3

复制代码
最终优化后脚本

  1. # 自动发现配置文件
  2. vim consumer-groups.conf
  3. #按消费者组(Group)|Topic格式,写入自动发现配置文件
  4. test-group|test
  5. test-group|test1
  6. # 自动发现、lag计算脚本
  7. vim consumer-groups.sh
  8. #!/bin/bash
  9. ##comment: 根据消费者组监控topic lag,进行监控告警
  10. #配置文件说明
  11. #消费者组|Topic
  12. #test-group|test
  13. #获取topic 信息
  14. cal_topic() {
  15.     if [ $# -ne 2 ]; then
  16.         echo “parameter num error, 读取topic信息失败”
  17.         exit 1
  18.     else
  19.         /usr/local/kafka/bin/./kafka-consumer-groups.sh –bootstrap-server 192.168.3.55:9092 –describe –group $1 |grep -w $2|grep -v none
  20.     fi
  21. }
  22. #topic+分区自动发现
  23. topic_discovery() {
  24.     printf “{\n”
  25.     printf “\t”data”: [\n”
  26.     m=0
  27.     num=`cat /etc/zabbix/monitor_scripts/consumer-groups.conf|wc -l`
  28.     for line in `cat /etc/zabbix/monitor_scripts/consumer-groups.conf`
  29.     do  
  30.         m=`expr $m + 1`
  31.         group=`echo ${line} | awk -F’|’ ‘{print $1}’`
  32.         topic=`echo ${line} | awk -F’|’ ‘{print $2}’`
  33.         cal_topic $group $topic > /tmp/consumer-group-tmp
  34.         count=`cat /tmp/consumer-group-tmp|wc -l`
  35.         n=0
  36.         while read line
  37.         do
  38.              n=`expr  $n + 1`
  39.              #判断最后一行
  40.              if [ $n -eq $count ] && [ $m -eq $num ]; then
  41.                  topicp=`echo $line | awk ‘{print $1}’`
  42.                  partition=`echo $line  | awk ‘{print $2}’`
  43.                  printf “\t\t{ “{#GROUP}”:”${group}”, “{#TOPICP}”:”${topicp}”, “{#PARTITION}”:”${partition}” }\n”
  44.              else
  45.                  topicp=`echo $line | awk ‘{print $1}’`
  46.                  partition=`echo $line  | awk ‘{print $2}’`
  47.                  printf “\t\t{ “{#GROUP}”:”${group}”, “{#TOPICP}”:”${topicp}”, “{#PARTITION}”:”${partition}” },\n”
  48.              fi
  49.         done < /tmp/consumer-group-tmp
  50.     done
  51.     printf “\t]\n”
  52.     printf “}\n”
  53. }
  54. if [ $1 == “discovery” ]; then
  55.     topic_discovery
  56. elif [ $1 == “lag” ];then
  57.     cal_topic $2 $3 > /tmp/consumer-group
  58.     cat /tmp/consumer-group |awk -v t=$3 -v p=$4 ‘{if($1==t && $2==p ){print $5}}’
  59. else
  60.     echo “Usage: /data/scripts/consumer-group.sh discovery | lag”
  61. fi
  62. # 手动运行
  63. ## 自动发现
  64. bash consumer-groups.sh discovery
  65. ## test-group test分区0 lag
  66. bash consumer-groups.sh lag test-group test 0

复制代码
接入Zabbix


1.Zabbix配置文件

  1. vim userparameter_kafka.conf
  2. UserParameter=topic_discovery,bash /data/scripts/consumer-groups.sh discovery
  3. UserParameter=topic_log
  4. [*],bash /data/scripts/consumer-groups.sh lag “$1” “$2” “$3”

复制代码
2.Zabbix自动发现

Zabbix对Kafka topic积压数据监控的问题(bug优化)


3.监控项配置

Zabbix对Kafka topic积压数据监控的问题(bug优化)


4.告警信息

  1. 告警主机:Kafka_192.168.3.55
  2. 主机IP:192.168.3.55
  3. 主机组:Kafka
  4. 告警时间:2022.03.21 00:23:10
  5. 告警等级:Average
  6. 告警信息:test-group/test/分区1:数据积压100
  7. 告警项目:topic_lag[test-group,test,1]
  8. 问题详情:
  9. test-group/test/1: 62

复制代码 到此这篇关于Zabbix对Kafka topic积压数据监控的文章就介绍到这了,更多相关Zabbix积压数据监控内容请搜索软件技术网以前的文章或继续浏览下面的相关文章希望大家以后多多支持软件技术网!

原创文章,作者:starterknow,如若转载,请注明出处:https://www.starterknow.com/109037.html

联系我们