在kubernetes集群中部署logstash步骤如下:

1:logstash安装文件(目前最新版本2.3.4);

2:编写Dockerfile及执行点脚本文件run.sh,并且修改logstash conf文件,配置为消费指定rabbitmq queue,并持久化消息至目标elasticsearch集群,制作logstash镜像;

3:推送镜像至某个Docker源,可以是公网的源,也可以是公司内部源;

4:在kubernetes主节点编写logstash镜像对应的RC文件;

5:在kubernetes集群中创建logstash pods;

6:测试验证

================================================================================================

1:logstash安装文件(目前最新版本2.3.4)

logstash目前最新版本安装包:logstash-2.3.4.tar.gz,可事先下载COPY进Docker镜像,也可以通过wget的方式在Dockerfile中配置下载;

================================================================================================

2:编写Dockerfile及执行点脚本文件run.sh,并且修改logstash conf文件,配置为消费指定rabbitmq queue,并持久化消息至目标elasticsearch集群,制作logstash镜像

由于logstash运行依赖于其配置文件,需要根据实际使用场景对配置文件的in,filter,out三个模块进行配置,因此需要先建立好conf文件;

我的使用场景是logstash作为rabbitmq中日志信息队列的消费者,获得rabbitmq推送的消息后,推送至out模块配置的elasticsearch集群,以供kibana使用(ELK框架)。

这是一个比较典型的应用场景,也可以根据实际需求配置logstash为redis或其它数据源的消费者;

如下是我的场景中的logstash配置文件(log-pipeline.conf):

 input {
   http {
   }
   rabbitmq {
         host => "localhost"
         port => 5672
         queue => "example.queue"
         key => ""
         user => "guest"
         password => "guest"
         durable => true
   }
 }
 filter {
   date {
         match => [ "timestamp","yyyy-MM-dd HH:mm:ss" ]
   }
 }
 output {
    elasticsearch {
         hosts => ["localhost:9200"]
         index => "logstash-*"
    }
 }

配置文件中的所有配置项都是默认值,实际参数是配置在kubernetes集群的RC文件中的;

同时,我们这里打开了http这个in模块,接受http直接推送消息,默认端口是8080;

现在我们可以建立Dockerfile:

 FROM centos:7.2.1511
 MAINTAINER JiaKai "jiakai@gridsum.com"
 COPY CentOS-Base.repo /etc/yum.repos.d/CentOS-Base.repo
 RUN yum update -y -q && yum install -y -q java-headless which && rm -rf /var/cache/yum
 ENV LOGSTASH_VERSION 2.3.4
 COPY ./logstash-${LOGSTASH_VERSION}.tar.gz /opt/logstash-${LOGSTASH_VERSION}.tar.gz
 RUN tar -xzf /opt/logstash-${LOGSTASH_VERSION}.tar.gz && \
     mv -f /logstash-${LOGSTASH_VERSION} /opt/logstash && \
     rm -f /opt/logstash-${LOGSTASH_VERSION}.tar.gz
 ENV CONF_FILE /log-pipeline.conf
 COPY ./log-pipeline.conf ${CONF_FILE}
 COPY ./run.sh /run.sh
 RUN chmod a+wx ${CONF_FILE} && chmod a+x /run.sh
 # logstash-input-http plugin default port 8080
 EXPOSE 8080
 CMD ["/run.sh"]

Dockerfile中需要注意的是,logstash的运行依赖于java环境及which组件,需要在基础镜像的基础上安装,同时要注意清除yum缓存,打开8080端口为为了支持logstash的http模块(在我的应用场景中也可以不打开);

Dockerfile的入口点run.sh文件如下:

 #!/bin/sh
 set -e
 RABBIT_HOST=${RABBIT_HOST:-localhost}
 RABBIT_PORT=${RABBIT_PORT:-5672}
 RABBIT_QUEUE=${RABBIT_QUEUE:-example.queue}
 RABBIT_USER=${RABBIT_USER:-guest}
 RABBIT_PWD=${RABBIT_PWD:-guest}
 ES_URLS=${ES_URLS:-localhost:9200}
 ES_INDEX=${ES_INDEX:-logstash-*}

 sed -i "s;^.*host => .*;        host => \"${RABBIT_HOST}\";" ${CONF_FILE}
 sed -i "s;^.*port => .*;        port => ${RABBIT_PORT};" ${CONF_FILE}
 sed -i "s;^.*queue => .*;        queue => \"${RABBIT_QUEUE}\";" ${CONF_FILE}
 sed -i "s;^.*user => .*;        user => \"${RABBIT_USER}\";" ${CONF_FILE}
 sed -i "s;^.*password => .*;        password => \"${RABBIT_PWD}\";" ${CONF_FILE}
 sed -i "s;^.*hosts => .*;        hosts => [\"${ES_URLS}\"];" ${CONF_FILE}
 sed -i "s;^.*index => .*;        index => \"${ES_INDEX}\";" ${CONF_FILE}

 exec /opt/logstash/bin/logstash -f ${CONF_FILE}

需要注意的是在配置文件的修改中,字符串参数需要双引号,因此sh中以\"包含起来;

完成以上3个文件的创建,即可通过

sudo docker build -t="jiakai/logstash:2.3.4" .

来创建logstash的Docker镜像;

无误的话将得到名为jiakai/logstash,Tag为2.3.4的logstash镜像,可以通过

sudo docker run -e RABBIT_HOST=10.XXX.XXX.XXX -e RABBIT_PORT=5672 -e RABBIT_QUEUE=Gridsum.LawDissector.NLog.Targets.LogMessage:Gridsum.LawDissector.NLog.Targets -e RABBIT_USER=XXX -e RABBIT_PWD=XXX -e ES_URLS=10.XXX.XXX.XXX:XXXX -e ES_INDEX=ld.log-%{+YYYY.MM} -i -t 913defa45d4c

来启动该镜像,其中913defa45d4c是我的Docker镜像ID,根据实际更改即可,无误的话,这时候我们查看Rabbitmq中指定的队列的consumer,会多出一个我们执行Docker镜像的宿主机的消费者,且这个IP是docker0的IP;

===============================================================================================

3:推送镜像至某个Docker源,可以是公网的源,也可以是公司内部源

推送镜像之前需要为镜像重新标记(TAG),这里以公司的内部源为例,将制作好的镜像推送至目标源:

sudo docker Tag jiakai/logstash:2.3.4 10.200.XXX.XXX:5000/gridsum/logstash:2.3.4

===============================================================================================

4:在kubernetes主节点编写logstash镜像对应的RC文件

5:在kubernetes集群中创建logstash pods;

6:测试验证。

由于我们场景中的logstash无需对外提供服务,仅仅作为rabbitmq的消费者存在,因此无需在kubernetes中提供logstash service,至需要利用RC保持logstash的高可用服务即可,因此我们建立logstash的RC文件:

 apiVersion: v1
 kind: ReplicationController
 metadata:
   name: logstash
   namespace: default
   labels:
     component: elk
     name: logstash
 spec:
   replicas: 1
   selector:
     component: elk
     name: logstash
   template:
     metadata:
       labels:
         component: elk
         name: logstash
     spec:
       containers:
       - name: logstash
         image: 10.XXX.XXX.XXX:5000/gridsum/logstash:2.3.4
         env:
         - name: RABBIT_HOST
           value: 10.XXX.XXX.XXX
         - name: RABBIT_PORT
           value: "5672"
         - name: RABBIT_QUEUE
           value: Gridsum.LawDissector.NLog.Targets.LogMessage:Gridsum.LawDissector.NLog.Targets
         - name: RABBIT_USER
           value: XXX
         - name: RABBIT_PWD
           value: XXX
         - name: ES_URLS
           value: 10.XXX.XXX.XXX:XXXX
         - name: ES_INDEX
           value: ld.log-%{+YYYY.MM}
         ports:
           - containerPort: 8080
             name: http
             protocol: TCP

文件保存为logstash-controller.yaml,之后在kubernetes集群主节点上执行

kubectl create -f logstash-controller.yaml

启动该RC;通过

kubectl get pods

检查logstash pod是否正常运行(running),同时检查rabbitmq对应的queue是否正确由这个logstash pod消费,再从elasticsearch集群确认消费的日志消息时候已经正确推送ELK。

经过以上步骤,即可通过kubernetes集群提供高可用的logstash服务,为ELK框架提供支持。

使用kuernetes提供高可用的logstash服务的更多相关文章

  1. 使用kuernetes提供高可用的kibana服务

    在kubernetes集群中部署kibana步骤如下: 1:kibana安装文件(目前最新版本4.5.1): 2:编写Dockerfile及执行点脚本文件run.sh,制作Kibana镜像: 3:推送 ...

  2. heartbeat单独提供高可用服务

    本文目录:1.简介2.安装heartbeat 2.1 编译安装Heartbeat3.heartbeat相关配置文件 3.1 配置文件ha.cf 3.2 配置文件authkeys 3.3 配置文件har ...

  3. 每天响应数亿次请求,腾讯云如何提供高可用API服务?

    每天响应数亿次请求,腾讯云如何提供高可用API服务? https://mp.weixin.qq.com/s/OPwlHcqkaTT_gcwHfr5Shw 李阳 云加社区 2020-09-16 导语 | ...

  4. 搭建高可用的Redis服务,需要注意这些方面!

    搭建高可用的Redis服务,需要注意这些方面! HorstXu 占小狼的博客 今天 ◎作者 | HorstXu www.cnblogs.com/xuning/p/8464625.html 基于内存的R ...

  5. [ Openstack ] Openstack-Mitaka 高可用之 网络服务(Neutron)

    目录 Openstack-Mitaka 高可用之 概述    Openstack-Mitaka 高可用之 环境初始化    Openstack-Mitaka 高可用之 Mariadb-Galera集群 ...

  6. [ Openstack ] Openstack-Mitaka 高可用之 计算服务(Nova)

    目录 Openstack-Mitaka 高可用之 概述    Openstack-Mitaka 高可用之 环境初始化    Openstack-Mitaka 高可用之 Mariadb-Galera集群 ...

  7. [ Openstack ] OpenStack-Mitaka 高可用之 镜像服务(glance)

    目录 Openstack-Mitaka 高可用之 概述    Openstack-Mitaka 高可用之 环境初始化    Openstack-Mitaka 高可用之 Mariadb-Galera集群 ...

  8. MaxCompute,基于Serverless的高可用大数据服务

    摘要:2019年1月18日,由阿里巴巴MaxCompute开发者社区和阿里云栖社区联合主办的“阿里云栖开发者沙龙大数据技术专场”走近北京联合大学,本次技术沙龙上,阿里巴巴高级技术专家吴永明为大家分享了 ...

  9. suse 12 编译部署Keepalived + nginx 为 kube-apiserver 提供高可用

    文章目录 编译部署nginx 下载nginx源码包 编译nginx 配置nginx.conf 配置nginx为systemctl管理 分发nginx二进制文件和配置文件 启动kube-nginx服务 ...

随机推荐

  1. java 22 - 15 死锁的问题

    同步的弊端:  A:效率低  B:容易产生死锁 死锁:  两个或两个以上的线程在争夺资源的过程中,发生的一种相互等待的现象. 举例: 中国人,美国人一起吃饭. 正常情况: 中国人:筷子两支  美国人: ...

  2. vijos1059 积木城堡[n年浙江省队第X轮](背包的方案总数 or 01背包)

    描述 XC的儿子小XC最喜欢玩的游戏用积木垒漂亮的城堡.城堡是用一些立方体的积木垒成的,城堡的每一层是一块积木.小XC是一个比他爸爸XC还聪明的孩子,他发现垒城堡的时候,如果下面的积木比上面的积木大, ...

  3. matrix(No.1)operations

  4. JavaScript 全局属性/函数

    JavaScript 全局 JavaScript 全局属性和方法可用于创建Javascript对象. JavaScript 全局属性 属性 描述 Infinity 代表正的无穷大的数值. NaN 指示 ...

  5. FJOI省队集训 chessboard

    (题目懒得打字了,建议到新窗口查看) 显然这玩意儿是可以按位搞的...然后就是一个裸的最小割模型? 然而这样做理论上只有30分实际上有40分. 事实上我们可以发现,每一列的取值只和上一列有关,这样我们 ...

  6. XMAPP配置

    F:\xmapp\apache\conf\extra httpd-vhosts.conf peizhi##<VirtualHost *:80> ## DocumentRoot " ...

  7. Java7并发编程实战(一) 守护线程的创建和运行

    Java里有一种特殊的线程叫做守护(Daemon)线程,这种线程的优先级很低,通常来说,当一个应用程序里面没有其他线程运行的时候,守护线程才运行,当线程是程序中唯一运行的线程时,守护线程执行结束后,J ...

  8. 谈谈patch strategy

    所谓的patch strategy,就是软件发布后出现bug时打补丁的方式 - 主要是关于源代码branch如何组织的方式 针对项目的开发阶段.开发状态.维护方式不同,可以有不同的patching s ...

  9. 【开源】分享一个前后端分离方案-前端angularjs+requirejs+dhtmlx 后端asp.net webapi

    一.前言 半年前左右折腾了一个前后端分离的架子,这几天才想起来翻出来分享给大家.关于前后端分离这个话题大家也谈了很久了,希望我这个实践能对大家有点点帮助,演示和源码都贴在后面. 二.技术架构 这两年a ...

  10. 简单高效的nodejs爬虫模型

    这篇文章讲解一下yunshare项目的爬虫模型. 使用nodejs开发爬虫很简单,不需要类似python的scrapy这样的爬虫框架,只需要用request或者superagent这样的http库就能 ...