1. # 监控kafka集群,开启监控趋势图使用
  2. # 有一个问题,需要在kafka-server-start.sh文件中配置端口,有如下三种办法
  3. # 第一种:复制并修改kafka目录,比如kafka-1,kafka-2,kafka-3,然后再每个目录下修改kafka-server-start.sh文件
  4. # 第二种:在启动脚本start.sh中添加指定端口
  5. # 第三种:多复制几个kafka-server-start.sh文件,然后进行修改,最后在start.sh中修改一下
  6. # 以下三种方法任选其一即可
  7. # 第一种方式办法,相应行修改成如下形式,注意端口号不同
  8. # 使用的是不同目录下的不同kafka-server-start.sh文件
  9. # start.sh文件也需要做相应的修改
  10. # kafka-1/bin/kafka-server-start.sh
  11. if [ "x$KAFKA_HEAP_OPTS" = "x" ]; then
  12. # export KAFKA_HEAP_OPTS="-Xmx1G -Xms1G"
  13. export KAFKA_HEAP_OPTS="-server -Xms2G -Xmx2G -XX:PermSize=128m -XX:+UseG1GC -XX:MaxGCPauseMillis=200 -XX:ParallelGCThreads=8 -XX:ConcGCThreads=5 -XX:InitiatingHeapOccupancyPercent=70"
  14. export JMX_PORT="9997"
  15. fi
  16. # kafka-2/bin/kafka-server-start.sh
  17. if [ "x$KAFKA_HEAP_OPTS" = "x" ]; then
  18. # export KAFKA_HEAP_OPTS="-Xmx1G -Xms1G"
  19. export KAFKA_HEAP_OPTS="-server -Xms2G -Xmx2G -XX:PermSize=128m -XX:+UseG1GC -XX:MaxGCPauseMillis=200 -XX:ParallelGCThreads=8 -XX:ConcGCThreads=5 -XX:InitiatingHeapOccupancyPercent=70"
  20. export JMX_PORT="9998"
  21. fi
  22. # kafka-3/bin/kafka-server-start.sh
  23. if [ "x$KAFKA_HEAP_OPTS" = "x" ]; then
  24. # export KAFKA_HEAP_OPTS="-Xmx1G -Xms1G"
  25. export KAFKA_HEAP_OPTS="-server -Xms2G -Xmx2G -XX:PermSize=128m -XX:+UseG1GC -XX:MaxGCPauseMillis=200 -XX:ParallelGCThreads=8 -XX:ConcGCThreads=5 -XX:InitiatingHeapOccupancyPercent=70"
  26. export JMX_PORT="9999"
  27. fi
  28. # start.sh
  29. #!/bin/bash
  30. bash kafka-1/bin/kafka-server-start.sh -daemon config/server-1.properties
  31. bash kafka-2/bin/kafka-server-start.sh -daemon config/server-2.properties
  32. bash kafka-3/bin/kafka-server-start.sh -daemon config/server-3.properties
  33. # 第二种方法
  34. # 使用的用一个目录下的同一个文件,只是在每个命令前指定端口号
  35. vim start.sh
  36. #!/bin/bash
  37. JMX_PORT=9997 bash bin/kafka-server-start.sh -daemon config/server-1.properties
  38. JMX_PORT=9998 bash bin/kafka-server-start.sh -daemon config/server-2.properties
  39. JMX_PORT=9999 bash bin/kafka-server-start.sh -daemon config/server-3.properties
  40. # 第三种方法
  41. # 使用的是同一个目录下的不同kafka-server-start文件
  42. # start.sh文件也需要做相应的修改
  43. cp kafka-server-start.sh kafka-server-start-1.sh
  44. cp kafka-server-start.sh kafka-server-start-2.sh
  45. cp kafka-server-start.sh kafka-server-start-3.sh
  46. vim kafka-server-start-1.sh
  47. if [ "x$KAFKA_HEAP_OPTS" = "x" ]; then
  48. # export KAFKA_HEAP_OPTS="-Xmx1G -Xms1G"
  49. export KAFKA_HEAP_OPTS="-server -Xms2G -Xmx2G -XX:PermSize=128m -XX:+UseG1GC -XX:MaxGCPauseMillis=200 -XX:ParallelGCThreads=8 -XX:ConcGCThreads=5 -XX:InitiatingHeapOccupancyPercent=70"
  50. export JMX_PORT="9997"
  51. fi
  52. vim kafka-server-start-2.sh
  53. if [ "x$KAFKA_HEAP_OPTS" = "x" ]; then
  54. # export KAFKA_HEAP_OPTS="-Xmx1G -Xms1G"
  55. export KAFKA_HEAP_OPTS="-server -Xms2G -Xmx2G -XX:PermSize=128m -XX:+UseG1GC -XX:MaxGCPauseMillis=200 -XX:ParallelGCThreads=8 -XX:ConcGCThreads=5 -XX:InitiatingHeapOccupancyPercent=70"
  56. export JMX_PORT="9998"
  57. fi
  58. vim kafka-server-start-3.sh
  59. if [ "x$KAFKA_HEAP_OPTS" = "x" ]; then
  60. # export KAFKA_HEAP_OPTS="-Xmx1G -Xms1G"
  61. export KAFKA_HEAP_OPTS="-server -Xms2G -Xmx2G -XX:PermSize=128m -XX:+UseG1GC -XX:MaxGCPauseMillis=200 -XX:ParallelGCThreads=8 -XX:ConcGCThreads=5 -XX:InitiatingHeapOccupancyPercent=70"
  62. export JMX_PORT="9999"
  63. fi
  64. vim start.sh
  65. #!/bin/bash
  66. bash bin/kafka-server-start-1.sh -daemon config/server-1.properties
  67. bash bin/kafka-server-start-2.sh -daemon config/server-2.properties
  68. bash bin/kafka-server-start-3.sh -daemon config/server-3.properties
  69. vim stop.sh
  70. #!/bin/bash
  71. bash bin/kafka-server-stop.sh
  1. cd /usr/local/src
  2. wget https://github.com/smartloli/kafka-eagle-bin/archive/v1.3.9.tar.gz
  3. # 多次解压缩后得到kafka-eagle-web-1.3.9目录,然后把该目录复制到/usr/local目录下
  4. cd /usr/local/kafka-eagle-web-1.3.9/conf
  5. vim system-config.properties
  6. kafka.eagle.zk.cluster.alias=cluster1
  7. cluster1.zk.list=localhost:2181,localhost:2182,localhost:2183
  8. kafka.eagle.metrics.charts=true # 开启监控趋势图,需要开启Kafka系统的JMX端口,设置该端口在$KAFKA_HOME/bin/kafka-server-start.sh脚本中
  9. kafka.eagle.sql.fix.error=true # 开启错误日志信息
  10. # 其余保持默认,数据库使用sqlite,注意路径需要事先创建好或修改成当前目录
  11. # 数据库也可以更换成MySQL
  12. kafka.eagle.url=jdbc:sqlite:/usr/local/kafka-eagle-web-1.3.9/db/ke.db
  13. # 注意
  14. # kafka.eagle.zk.cluster.alias的值需要跟下面的这个cluster1.zk.list小数点第一个保持一致,比如都是cluster1,否则获取不到数据
  15. # 添加环境变量
  16. vim /etc/profile.d/kafka_eagle.sh
  17. #!/bin/bash
  18. export KE_HOME=/usr/local/kafka-eagle-web-1.3.9
  19. export PATH=$PATH:$KE_HOME/bin
  20. source /etc/profile.d/kafka_eagle.sh
  21. # 命令相关
  22. bash bin/ke.sh start|stop|status|stats|restart
  23. # 启动
  24. bash bin/ke.sh start
  25. *******************************************************************
  26. * Kafka Eagle system monitor port successful...
  27. *******************************************************************
  28. [2019-09-20 12:10:32] INFO: Status Code[0]
  29. [2019-09-20 12:10:32] INFO: [Job done!]
  30. Welcome to
  31. __ __ ___ ____ __ __ ___ ______ ___ ______ __ ______
  32. / //_/ / | / __/ / //_/ / | / ____/ / | / ____/ / / / ____/
  33. / ,< / /| | / /_ / ,< / /| | / __/ / /| | / / __ / / / __/
  34. / /| | / ___ | / __/ / /| | / ___ | / /___ / ___ |/ /_/ / / /___ / /___
  35. /_/ |_| /_/ |_|/_/ /_/ |_| /_/ |_| /_____/ /_/ |_|\____/ /_____//_____/
  36. Version 1.3.9
  37. *******************************************************************
  38. * Kafka Eagle Service has started success.
  39. * Welcome, Now you can visit 'http://127.0.0.1:8048/ke'
  40. * Account:admin ,Password:123456
  41. *******************************************************************
  42. * <Usage> ke.sh [start|status|stop|restart|stats] </Usage>
  43. * <Usage> https://www.kafka-eagle.org/ </Usage>
  44. *******************************************************************
  45. # 浏览器访问,防火墙放行该端口,后期改用Nginx代理
  46. 地址:192.168.0.187:8048/ke
  47. 账号:admin,密码:123456
  48. # 在kafka eagle平台使用KSQL查询数据
  49. # 左侧导航
  50. # 1.先在Topic-List中查看到Topic Name和Partition Indexes的值
  51. # ID Topic Name Partition Indexes Partition Numbers Created Modify Operate
  52. # 1 canal_manager [0] 1 2019-09-20 17:27:15 2019-09-20 17:27:15
  53. # 2. 在Topic-KSQL中输入查询语句
  54. # select * from "canal_manager" where "partition" in (0) limit 1
  55. # 下方会显示查询所用时间和查询后的结果
  56. # 在如下目录的文件中可以查看具体的异常信息,一般都会提示具体的错误
  57. # tail -n 30 kafka-eagle-web-1.3.9/logs/ke_console.out
  1. # 配置文件详细说明
  2. ######################################
  3. # 配置多个Kafka集群所对应的Zookeeper
  4. ######################################
  5. kafka.eagle.zk.cluster.alias=cluster1,cluster2
  6. cluster1.zk.list=dn1:2181,dn2:2181,dn3:2181
  7. cluster2.zk.list=tdn1:2181,tdn2:2181,tdn3:2181
  8. ######################################
  9. # 设置Zookeeper线程数
  10. ######################################
  11. kafka.zk.limit.size=25
  12. ######################################
  13. # 设置Kafka Eagle浏览器访问端口
  14. ######################################
  15. kafka.eagle.webui.port=8048
  16. ######################################
  17. # 如果你的offsets存储在Kafka中,这里就配置
  18. # 属性值为kafka,如果是在Zookeeper中,可以
  19. # 注释该属性。一般情况下,Offsets的也和你消
  20. # 费者API有关系,如果你使用的Kafka版本为0.10.x
  21. # 以后的版本,但是,你的消费API使用的是0.8.2.x
  22. # 时的API,此时消费者依然是在Zookeeper中
  23. ######################################
  24. cluster1.kafka.eagle.offset.storage=kafka
  25. ######################################
  26. # 如果你的集群一个是新版本(0.10.x以上),
  27. # 一个是老版本(0.8或0.9),可以这样设置,
  28. # 如果都是新版本,那么可以将值都设置成kafka
  29. ######################################
  30. cluster2.kafka.eagle.offset.storage=zookeeper
  31. ######################################
  32. # 是否启动监控图表,默认是不启动的
  33. ######################################
  34. kafka.eagle.metrics.charts=false
  35. ######################################
  36. # 在使用Kafka SQL查询主题时,如果遇到错误,
  37. # 可以尝试开启这个属性,默认情况下,不开启
  38. ######################################
  39. kafka.eagle.sql.fix.error=false
  40. ######################################
  41. # 邮件服务器设置,用来告警
  42. ######################################
  43. kafka.eagle.mail.enable=false
  44. kafka.eagle.mail.sa=
  45. kafka.eagle.mail.username=
  46. kafka.eagle.mail.password=
  47. kafka.eagle.mail.server.host=
  48. kafka.eagle.mail.server.port=
  49. ######################################
  50. # 设置告警用户,多个用户以英文逗号分隔
  51. ######################################
  52. kafka.eagle.alert.users=smartloli.org@gmail.com
  53. ######################################
  54. # 超级管理员删除主题的Token
  55. ######################################
  56. kafka.eagle.topic.token=keadmin
  57. ######################################
  58. # 如果启动Kafka SASL协议,开启该属性
  59. ######################################
  60. kafka.eagle.sasl.enable=false
  61. kafka.eagle.sasl.protocol=SASL_PLAINTEXT
  62. kafka.eagle.sasl.mechanism=PLAIN
  63. ######################################
  64. # Kafka Eagle默认存储在Sqlite中,如果要使用
  65. # MySQL可以替换驱动、用户名、密码、连接地址
  66. ######################################
  67. #kafka.eagle.driver=com.mysql.jdbc.Driver
  68. #kafka.eagle.url=jdbc:mysql://127.0.0.1:3306/ke?useUnicode=true&characterEncoding=UTF-8&zeroDateTimeBehavior=convertToNull
  69. #kafka.eagle.username=root
  70. #kafka.eagle.password=123456
  71. kafka.eagle.driver=org.sqlite.JDBC
  72. kafka.eagle.url=jdbc:sqlite:/Users/dengjie/workspace/kafka-egale/db/ke.db
  73. kafka.eagle.username=root
  74. kafka.eagle.password=root

使用kafka-eagle监控Kafka的更多相关文章

  1. Kafka 消息监控 - Kafka Eagle

    1.概述 在开发工作当中,消费 Kafka 集群中的消息时,数据的变动是我们所关心的,当业务并不复杂的前提下,我们可以使用 Kafka 提供的命令工具,配合 Zookeeper 客户端工具,可以很方便 ...

  2. Kafka监控系统Kafka Eagle剖析

    1.概述 最近有同学留言反馈了使用Kafka监控工具Kafka Eagle的一些问题,这里笔者特意整理了这些问题.并且希望通过这篇博客来解答这些同学的在使用Kafka Eagle的时候遇到的一些困惑, ...

  3. KAFKA 监控管理界面 KAFKA EAGLE 安装

    概述 Kafka Eagle监控系统是一款用来监控Kafka集群的工具,目前更新的版本是v1.2.3,支持管理多个Kafka集群.管理Kafka主题(包含查看.删除.创建等).消费者组合消费者实例监控 ...

  4. Kafka Eagle 源码解读

    1.概述 在<Kafka 消息监控 - Kafka Eagle>一文中,简单的介绍了 Kafka Eagle这款监控工具的作用,截图预览,以及使用详情.今天笔者通过其源码来解读实现细节.目 ...

  5. 比Kafka Mangaer更优秀的开源监控工具-Kafka Eagle

    比Kafka Mangaer更优秀的开源监控工具-Kafka Eagle 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 在Kafka的监控系统中有很多优秀的开源监控系统.比如Kaf ...

  6. Kafka Eagle安装详情及问题解答

    1.概述 最近有很多同学给笔者留言,说在安装Kafka Eagle的时候,会遇到一些问题,请教如何解决?今天笔者就在这里总结一下安装步骤,和一些安装的注意事项,以及解决方式. 2.内容 在安装Kafk ...

  7. kafka-eagle监控kafka

    最近想做一个kafka监控,本来准备用zabbix来监控的,需要重复造轮子,本来准备用kafka-Manager的,在GitHub上无意发现了kafka-eagle,看了官方介绍准备试一下..... ...

  8. Kafka Eagle 管理平台

    Kafka-Eagle简介 源代码地址:https://github.com/smartloli/kafka-eagle Kafka Eagle是什么 Kafka Eagle是一款用于监控和管理Apa ...

  9. Kafka 集群消息监控系统:Kafka Eagle

    Kafka Eagle 1.概述 在开发工作当中,消费 Kafka 集群中的消息时,数据的变动是我们所关心的,当业务并不复杂的前提下,我们可以使用 Kafka 提供的命令工具,配合 Zookeeper ...

  10. Kafka监控系统Kafka Eagle:支持kerberos认证

    在线文档:https://ke.smartloli.org/ 作者博客:https://www.cnblogs.com/smartloli/p/9371904.html 源码地址:https://gi ...

随机推荐

  1. 【软件工程】Alpha事后诸葛亮

    链接部分 队名:女生都队 组长博客: 博客链接 作业博客:博客链接 参考邹欣老师的问题模板进行总结思考 一.设想和目标 1.我们的软件要解决什么问题?是否定义得很清楚?是否对典型用户和典型场景有清晰的 ...

  2. C#计算两个时间年份月份天数(根据生日计算年龄)差,求时间间隔

    C#计算两个时间年份月份差 DateTime dt1 = Convert.ToDateTime("2008-8-8"); DateTime dt2 = System.DateTim ...

  3. a lot of attention under the hood

    Because one of the original goals of the Node.js project was to allow developers to easily build app ...

  4. HAproxy负载均衡-ACL篇

    ACL定制法则: 开放策略:拒绝所有,只开放已知 拒绝策略:允许所有,只拒绝某些 事实上实现安全策略,无非也就是以上两种方法 redirect 参考:http://cbonte.github.io/h ...

  5. Java端使用Batik将SVG转为PNG

    在上篇中,我们需要将Highcharts生成的图通过后台保存到pdf文件中,就需要对SVG进行转换. 这里就介绍一下使用Batik处理SVG代码的方法. 首先是jar包的获取地址,https://xm ...

  6. Qt编写自定义控件14-环形进度条

    前言 环形进度条,用来展示当前进度,为了满足大屏UI的需要特意定制,以前有个叫圆环进度条,不能满足项目需要,只能重新定做,以前的进度间距不能自适应分辨率,而且当前进度对应的反的进度不能单独设置颜色,即 ...

  7. openstack部署nova

    controller 一.创建nova数据库,并设置权限及远程登录 mysql -u root -p CREATE DATABASE nova_api; CREATE DATABASE nova; C ...

  8. 数据分析电子商务B2C全流程_数据分析师

    数据分析电子商务B2C全流程_数据分析师 目前,绝大多数B2C的转化率都在1%以下,做的最好的也只能到3.5%左右(比如以卖图书为主的当当) 我想,所有的B2C都会关心三个问题:究竟那97%去了哪里? ...

  9. (转载)悟透JavaScript

    引子 编程世界里只存在两种基本元素,一个是数据,一个是代码.编程世界就是在数据和代码千丝万缕的纠缠中呈现出无限的生机和活力. 数据天生就是文静的,总想保持自己固有的本色:而代码却天生活泼,总想改变这个 ...

  10. js如何控制select展开

    找了一圈也没找到靠谱的方案,后来通过动态的控制select的size属性实现了. 这也算是一种方法吧. 先判断option的数量n,然后把select的size调整到n,当用户选择后,再把size设置 ...