flume
    多种适配,多样化的数据收集
    核心概念
        event:一条消息
        client:访问者
        agent:
            重要组件Sources、Channels、Sinks。Interspactor、Selecter
        
        
kafka
    吞吐量大,高并发场景下使用

注意:flume的agent配置文件不允许有空格。

一、flume打印内容到控制台
        1、创建一个agent(使用avroSource接收网络流在flume的控制台打印)配置文件agent1.conf
            cd /usr/local/flume/
            vi /conf/agent1.conf
                agent1.sources=as1
                agent1.channels=c1
                agent1.sinks=s1

agent1.sources.as1.type=avro
                agent1.sources.as1.bind=0.0.0.0            ##接收任意ip发送的数据
                agent1.sources.as1.port=21111            ##在21111端口上监听
                agent1.sources.as1.channels=c1
                agent1.channels.c1.type=memory

agent1.sinks.s1.type=logger
                agent1.sinks.s1.channel=c1
        2、启动agent1(每30秒检查agent1.conf文件一次,检查该文件是否有变化,有变化则马上生效),将输出打印在控制台上
            bin/flume-ng agent --conf conf/ -Dflume.root.logger=DEBUG,console -n agent1 -f conf/agent1.conf
        3、使用java代码生产log4j日志输出到flume
            
        3、验证agent,一种是flume控制台测试,一种是java代码通过log4j写日志
            1)bin/flume-ng avro-client --conf conf/ -H localhost -p 21111 -F ~/a        ##将~目录下的a文件内容写入到flume
            2)使用java类将log4j的日志写入到flume的agent中
                log4j.properties配置文件
                    log4j.rootLogger=INFO,flume
                    log4j.appender.flume = org.apache.flume.clients.log4jappender.Log4jAppender
                    log4j.appender.flume.Hostname = 192.168.1.33                                    ##flume启动agent所在的节点ip
                    log4j.appender.flume.Port = 21111                                                ##flume启动agent监听的端口号
                    log4j.appender.flume.UnsafeMode = true
                
                java代码    
                    public class FlumeProducer {
                        public static void main(String[] args) throws Exception {
                            final Logger logger = Logger.getLogger(FlumeProducer.class);
                            while (true) {
                                logger.info("logger datetime :" + System.currentTimeMillis());
                                Thread.sleep(1000);
                            }
                        }
                    }

二、flume生成avroLog文件写入到hdfs中,存放到不同的/IP/日期/文件夹中
        1、创建一个agent(使用avroSource接收网络流写入到hdfs)配置文件agent2.conf
            cd /usr/local/flume/
            vi /conf/agent2.conf
                agent2.sources=source1
                agent2.channels=channel1
                agent2.sinks=sink1

agent2.sources.source1.type=avro
                agent2.sources.source1.bind=0.0.0.0
                agent2.sources.source1.port=44444
                agent2.sources.source1.channels=channel1
                
                agent2.sources.source1.interceptors = i1 i2
                agent2.sources.source1.interceptors.i1.type = org.apache.flume.interceptor.HostInterceptor$Builder
                agent2.sources.source1.interceptors.i1.preserveExisting = true
                agent2.sources.source1.interceptors.i1.useIP = true
                agent2.sources.source1.interceptors.i2.type = org.apache.flume.interceptor.TimestampInterceptor$Builder

agent2.channels.channel1.type=memory
                agent2.channels.channel1.capacity=10000
                agent2.channels.channel1.transactionCapacity=1000
                agent2.channels.channel1.keep-alive=30

agent2.sinks.sink1.type=hdfs
                agent2.sinks.sink1.channel=channel1
                agent2.sinks.sink1.hdfs.path=hdfs://ns1/flume/events/%{host}/%Y-%m-%d            ##flume将文件写入到hdfs的路径
                agent2.sinks.sink1.hdfs.filePrefix=avroLog-                                        ##flume生成文件的前缀
                agent2.sinks.sink1.hdfs.fileSuffix=.log                                            ##flume生成文件的后缀
                agent2.sinks.sink1.hdfs.fileType=DataStream                                        ##flume生成文件的类型,DataStream或SequenceFile
                agent2.sinks.sink1.hdfs.writeFormat=Text
                agent2.sinks.sink1.hdfs.rollInterval=0
                agent2.sinks.sink1.hdfs.rollSize=10000
                agent2.sinks.sink1.hdfs.rollCount=0
                agent2.sinks.sink1.hdfs.idleTimeout=5
        2、启动agent2(每30秒检查agent1.conf文件一次,检查该文件是否有变化,有变化则马上生效),将内容写入到hdfs的/flume/events/中
            bin/flume-ng agent --conf conf/ -Dflume.monitoring.type=http -Dflume.monitoring.port=34343 -n agent2 -f conf/agent2.conf
        3、使用java代码生产log4j日志输出到flume
            log4j.properties配置文件
                log4j.rootLogger=INFO,flume
                log4j.appender.flume = org.apache.flume.clients.log4jappender.Log4jAppender
                log4j.appender.flume.Hostname = 192.168.1.33                                    ##flume启动agent所在的节点ip
                log4j.appender.flume.Port = 21111                                                ##flume启动agent监听的端口号
                log4j.appender.flume.UnsafeMode = true
                
            java代码    
                public class FlumeProducer {
                    public static void main(String[] args) throws Exception {
                        final Logger logger = Logger.getLogger(FlumeProducer.class);
                        while (true) {
                            logger.info("logger datetime :" + System.currentTimeMillis());
                            Thread.sleep(1000);
                        }
                    }
                }            
        4、验证agent2是否成功写入到hdfs的/flume/events/文件夹下
            hdfs dfs -ls -h -R /flume/events/IP/yyyy-MM-dd/                                        ##如果存在一个或多个avroLog.timestamp.log文件表示成功
            
  三、使用Socket客户端写入到flume中,flume保存文件到本地

    1、创建agent_tcp.conf(接收socket客户端发送的数据然后写入到Linux本地)

      cd /usr/local/flume

      vi conf/agent_tcp.conf

        agent_tcp.sources=as1
        agent_tcp.channels=c1
        agent_tcp.sinks=s1

        agent_tcp.sources.as1.type=syslogtcp
        agent_tcp.sources.as1.bind=0.0.0.0
        agent_tcp.sources.as1.port=21111
        agent_tcp.sources.as1.channels=c1

        agent_tcp.channels.c1.type=memory
        agent_tcp.channels.c1.capacity=10000
        agent_tcp.channels.c1.transactionCapacity=10000
        agent_tcp.channels.c1.keep-alive=120
        agent_tcp.channels.c1.byteCapacityBufferPercentage=20
        agent_tcp.channels.c1.byteCapacity=800000
  
        agent_tcp.sinks.s1.type=file_roll
        agent_tcp.sinks.s1.rollSize=10000
        agent_tcp.sinks.s1.sink.directory =/home/lefuBigDataDev/clouds/flume/logs
        agent_tcp.sinks.s1.channel=c1
    2、启动flume的agent_tcp.conf

      bin/flume-ng agent -n agent_tcp -c conf/ -f conf/agent_tcp.conf -Dflume.root.logger=DEBUG,console

    3、java代码socket客户端

      package com.left.clouds.cluster.flume.test;

  import java.io.InputStream;
              import java.io.OutputStream;
              import java.net.Socket;

              import org.junit.Before;
              import org.junit.Test;

        public class TestFlume {

            private Socket client = null;
                  InputStream in = null;
                  OutputStream out = null;
                
                  @Before
                  public void before(){
                      try {
                          client = new Socket("192.168.0.218", 21111);
                      } catch (Exception e) {
                          e.printStackTrace();
                      }
                  }
                
                  @Test
                  public void sender() {
                      try {
                          out = client.getOutputStream();
                          int i = 0;
                          while(true){
                              out.write(("device-"+(i++)+("\n")).getBytes());
                              Thread.sleep(4000);
                              System.out.println("第:"+i+"次发送...");
                          }
                      } catch (Exception e) {
                          e.printStackTrace();
                      }                
                  }

        }

Flume-1.6.0中包含了kafka的source,agent配置文件实例如下
front_agent_kafka.sources=as1
front_agent_kafka.channels=c1
front_agent_kafka.sinks=s1

front_agent_kafka.sources.as1.type=org.apache.flume.source.kafka.KafkaSource
front_agent_kafka.sources.as1.zookeeperConnect=192.168.0.20:2181
front_agent_kafka.sources.as1.topic=test
front_agent_kafka.sources.as1.groupId=flume
front_agent_kafka.sources.as1.batchSize=100
front_agent_kafka.sources.as1.channels=c1
                              
front_agent_kafka.channels.c1.type=memory
front_agent_kafka.channels.c1.capacity=10000
front_agent_kafka.channels.c1.transactionCapacity=10000
front_agent_kafka.channels.c1.keep-alive=120
front_agent_kafka.channels.c1.byteCapacityBufferPercentage=20
front_agent_kafka.channels.c1.byteCapacity=800000

front_agent_kafka.sinks.s1.type=com.lefukj.flume.sinks.JdbcSink
front_agent_kafka.sinks.s1.channel=c1

flume-agent实例的更多相关文章

  1. Flume Source 实例

    Flume Source 实例 Avro Source 监听avro端口,接收外部avro客户端数据流.跟前面的agent的Avro Sink可以组成多层拓扑结构. 1 2 3 4 5 6 7 8 9 ...

  2. 《OD大数据实战》Flume入门实例

    一.netcat source + memory channel + logger sink 1. 修改配置 1)修改$FLUME_HOME/conf下的flume-env.sh文件,修改内容如下 e ...

  3. 一个flume agent异常的解决过程记录

    今天在使用flume agent的时候,遇到了一个异常,  现把解决的过程记录如下: 问题的背景: 我使用flume agent 来接收从storm topology发送下来的accesslog , ...

  4. flume agent的内部原理

    flume agent 内部原理   1.Source采集数据,EventBuilder.withBody(body)将数据封装成Event对象,source.getChannelProcessor( ...

  5. flume+sparkStreaming实例 实时监控文件demo

    1,flume所在的节点不和spark同一个集群  v50和 10-15节点 flume在v50里面 flume-agent.conf spark是开的work节点,就是单点计算节点,不涉及到mast ...

  6. 使用Flume消费Kafka数据到HDFS

    1.概述 对于数据的转发,Kafka是一个不错的选择.Kafka能够装载数据到消息队列,然后等待其他业务场景去消费这些数据,Kafka的应用接口API非常的丰富,支持各种存储介质,例如HDFS.HBa ...

  7. flume安装及入门实例

    1. 如何安装? 1)将下载的flume包,解压到/home/hadoop目录中 2)修改 flume-env.sh 配置文件,主要是JAVA_HOME变量设置 root@m1:/home/hadoo ...

  8. Flume 多个agent串联

    多个agent串联 采集需求:比如业务系统使用log4j生成的日志,日志内容不断增加,需要把追加到日志文件中的数据实时采集到hdfs,使用agent串联 根据需求,首先定义以下3大要素 第一台flum ...

  9. 大数据学习day35----flume01-------1 agent(关于agent的一些问题),2 event,3 有关agent和event的一些问题,4 transaction(事务控制机制),5 flume安装 6.Flume入门案例

    具体见文档,以下只是简单笔记(内容不全) 1.agent Flume中最核心的角色是agent,flume采集系统就是由一个个agent连接起来所形成的一个或简单或复杂的数据传输通道.对于每一个Age ...

  10. Flume官方文档翻译——Flume 1.7.0 User Guide (unreleased version)中一些知识点

    Flume官方文档翻译--Flume 1.7.0 User Guide (unreleased version)(一) Flume官方文档翻译--Flume 1.7.0 User Guide (unr ...

随机推荐

  1. PHP开发Android应用程序(转)

    第一部分是指在Android系统的手机上直接写PHP脚本代码并立即运行:第二部分则继续讲解如何把写好的PHP脚本代码打包成akp安装文件. 首先,在手机上安装两个apk包. 一个是SL4A(Scrip ...

  2. linux下svn客户端安装及环境配置(转)

    一.    源文件编译安装.源文件共两个,为: 1.   下载subversion源文件 subversion-1.6.1.tar.gz http://d136.d.iask.com/fs/800/1 ...

  3. 05-图2. Saving James Bond - Easy Version (25)

    1 边界和湖心小岛分别算一个节点.连接全部距离小于D的鳄鱼.时间复杂度O(N2) 2 推断每一个连通图的节点中是否包括边界和湖心小岛,是则Yes否则No 3 冗长混乱的函数參数 #include &l ...

  4. valgrind 的使用及错误信息分析

          这里记录一下使用valgrind查找你的应用程序中的各种潜在的错误信息,并举例说明. 经常使用valgrind查找一下你的代码的内存有关错误,对移植到嵌入系统后的系统稳定性来说有着重要的意 ...

  5. 关于CSS选择器的效率问题

    最近一段时间接触CSS比较多,所以从网上找了写资料,这里做下总结. 以下是CSS选择器的效率排名: id选择器(#myid) 类选择器(.myclassname) 标签选择器(div,h1,p) 相邻 ...

  6. Java 编程的动态性, 第4部分: 用 Javassist 进行类转换--转载

    讲过了 Java 类格式和利用反射进行的运行时访问后,本系列到了进入更高级主题的时候了.本月我将开始本系列的第二部分,在这里 Java 类信息只不过是由应用程序操纵的另一种形式的数据结构而已.我将这个 ...

  7. (转)asp.net 使用cookie完成记住密码自动登录

     代码如下 复制代码 string username = this.txtUserName.Text;//用户名        string password = this.txtPassword.T ...

  8. SOA

    面向服务架构Service-Oriented Architecture 4个特性 1每个服务具有明确的边界 2服务是独立的 3采用标准的契约定义和通信协议 4服务是自解释的

  9. 如何打开Windows Server 2003 内存寻址扩展

    本文介绍了如何在系统内存大于4G的情况下,让windows2003 Advanced Server支持大内存的方法: 由于Windows2003 32bit是32位操作系统,当服务器配备内存高达4G时 ...

  10. iOS中如何使状态栏与下面的搜索栏或NavigationBar或toolBar颜色一致

    在iOS7之后,status bar是透明的(transparent),navigation bars,tab bars,toolbars,search bars 和 scope bars 是半透明的 ...