Flume线上日志采集【模板】
Flume线上日志采集【模板】
预装软件
Java
HDFS
Lzo/Lzop
系统版本
Flume 1.5.0-cdh5.4.0
系统流程图

flume-env.sh配置文件
export JAVA_HOME=/usr/local/jdk1.7.0_55
export JAVA_OPTS="-Xms100m -Xmx2000m -Dcom.sun.management.jmxremote"
单机版写HDFS配置文件
[root@bs038 conf]# more flume_directHDFS.conf
#Define agent
agent1.channels=ch1
agent1.sources=avro-source1
agent1.sinks=log-sink1
#Defineamemorychannelcalledch1onagent1
agent1.channels.ch1.type=memory
agent1.channels.ch1.capacity=100000
agent1.channels.ch1.transactionCapacity=100000
agent1.channels.ch1.keep-alive=30
agent1.sources.avro-source1.interceptors = i1
agent1.sources.avro-source1.interceptors.i1.type = timestamp
#definesourcemonitorafile
agent1.sources.avro-source1.type=exec
agent1.sources.avro-source1.shell=/bin/bash -c
#agent1.sources.avro-source1.command=tail-n+0-F/home/storm/tmp/id.txt
agent1.sources.avro-source1.command=tail -F test.log
agent1.sources.avro-source1.channels=ch1
agent1.sources.avro-source1.threads=5
#Definealoggersinkthatsimplylogsalleventsitreceives
#andconnectittotheotherendofthesamechannel.
agent1.sinks.log-sink1.channel=ch1
agent1.sinks.log-sink1.type=hdfs
agent1.sinks.log-sink1.hdfs.path=/user/hadoop/cndns/flume/%Y%m%d%M
agent1.sinks.log-sink1.hdfs.writeFormat=Text
agent1.sinks.log-sink1.hdfs.filePrefix=cdns
agent1.sinks.log-sink1.hdfs.inUseSuffix=.tmp
#agent1.sinks.log-sink1.hdfs.fileType=DataStream
agent1.sinks.log-sink1.hdfs.fileType=CompressedStream
agent1.sinks.log-sink1.hdfs.codeC=lzop
agent1.sinks.log-sink1.hdfs.rollInterval=0
agent1.sinks.log-sink1.hdfs.rollSize=67108864
agent1.sinks.log-sink1.hdfs.rollCount=0
agent1.sinks.log-sink1.hdfs.batchSize=1000
agent1.sinks.log-sink1.hdfs.txnEventMax=1000
agent1.sinks.log-sink1.hdfs.callTimeout=60000
agent1.sinks.log-sink1.hdfs.appendTimeout=60000
终端配置文件
[root@bs038 conf]# more agent038.conf
agent1.sources = avro-source1
agent1.sinks = k1
agent1.channels = c1
agent1.sinks.k1.type = avro
agent1.sinks.k1.hostname = bs022.zx.nicx.cn
agent1.sinks.k1.port = 44444
#Defineamemorychannelcalledch1onagent1
agent1.channels.ch1.type=memory
agent1.channels.ch1.capacity=100000
agent1.channels.ch1.transactionCapacity=100000
agent1.channels.ch1.keep-alive=30
agent1.sources.avro-source1.interceptors = i1
agent1.sources.avro-source1.interceptors.i1.type = timestamp
agent1.sources.avro-source1.type=exec
agent1.sources.avro-source1.shell=/bin/bash -c
agent1.sources.avro-source1.command=tail -F test.log
agent1.sources.avro-source1.channels=ch1
agent1.sources.avro-source1.threads=5
agent1.channels.c1.type = file
agent1.channels.c1.checkpointDir = flume.checkpoint
agent1.channels.c1.dataDirs = flume.data
agent1.channels.c1.capacity = 200000000
agent1.channels.c1.keep-alive = 30
agent1.channels.c1.write-timeout = 30
agent1.channels.c1.checkpoint-timeout=600
agent1.sources.avro-source1.channels = c1
agent1.sinks.k1.channel = c1
中间传输流配置文件
agent2.sources = r2
agent2.sinks = k2
agent2.channels = c2
agent2.sources.r2.type = avro
agent2.sources.r2.bind = bs022.zx.nicx.cn
agent2.sources.r2.port = 44444
agent2.sinks.k2.type = avro
agent2.sinks.k2.hostname = bs042.zx.nicx.cn
agent2.sinks.k2.port = 55555
agent2.channels.c2.type = file
agent2.channels.c2.checkpointDir = flume.checkpoint
agent2.channels.c2.dataDirs = flume.data
agent2.channels.c2.capacity = 200000000
agent2.channels.c2.keep-alive = 30
agent2.channels.c2.write-timeout = 30
agent2.channels.c2.checkpoint-timeout=600
agent2.sources.r2.channels = c2
agent2.sinks.k2.channel = c2
写HDFS配置文件
[root@bs042 flume-ng-1.5.0-cdh5.4.0]# more conf/agent042.conf
#Define agent
agent1.channels=ch1
agent1.sources=avro-source1
agent1.sinks=log-sink1
#definesourcemonitorafile
agent1.sources.avro-source1.type = avro
agent1.sources.avro-source1.bind = bs042.zx.nicx.cn
agent1.sources.avro-source1.port = 55555
agent1.sources.avro-source1.interceptors = i1
agent1.sources.avro-source1.interceptors.i1.type = timestamp
#Definealoggersinkthatsimplylogsalleventsitreceives
#andconnectittotheotherendofthesamechannel.
agent1.sinks.log-sink1.channel=ch1
agent1.sinks.log-sink1.type=hdfs
agent1.sinks.log-sink1.hdfs.path=/user/hadoop/cndns/flume/%Y%m%d
agent1.sinks.log-sink1.hdfs.writeFormat=Text
agent1.sinks.log-sink1.hdfs.filePrefix=cdns
agent1.sinks.log-sink1.hdfs.inUseSuffix=.tmp
#agent1.sinks.log-sink1.hdfs.fileType=DataStream
agent1.sinks.log-sink1.hdfs.fileType=CompressedStream
agent1.sinks.log-sink1.hdfs.codeC=lzop
agent1.sinks.log-sink1.hdfs.rollInterval=0
agent1.sinks.log-sink1.hdfs.rollSize=67108864
agent1.sinks.log-sink1.hdfs.rollCount=0
agent1.sinks.log-sink1.hdfs.batchSize=1000
agent1.sinks.log-sink1.hdfs.txnEventMax=1000
agent1.sinks.log-sink1.hdfs.callTimeout=60000
agent1.sinks.log-sink1.hdfs.appendTimeout=60000
#Defineamemorychannelcalledch1onagent1
agent1.channels.ch1.type = file
agent1.channels.ch1.checkpointDir = flume.checkpoint
agent1.channels.ch1.dataDirs = flume.data
agent1.channels.ch1.capacity = 200000000
agent1.channels.ch1.keep-alive = 30
agent1.channels.ch1.write-timeout = 30
agent1.channels.ch1.checkpoint-timeout=600
agent1.sources.avro-source1.channels = ch1
agent1.sinks.log-sink1.channel = ch1
tail -F断点续传问题
tail -n +$(tail -n1 num) -F test.log 2>&1 | awk 'ARGIND==1{i=$0;next}{i++;if($0~/^tail/){i=0};print $0;print i >> "num";fflush("")}' num –
【注】
Flume线上日志采集【模板】的更多相关文章
- 研发流程 接口定义&开发&前后端联调 线上日志观察 模型变动
阿里等大厂的研发流程,进去前先了解一下_我们一起进大厂 - SegmentFault 思否 https://segmentfault.com/a/1190000021831640 接口定义 测试用例评 ...
- Nodejs线上日志部署
Nodejs 被越来越多的使用到线上系统中,但线上系统没有日志怎么行呢. 一.forever记录日志 我的线上系统使用forever来启动服务,最开始就直接使用了forever来记录 forever ...
- 线上日志集中化可视化管理:ELK
本文来自网易云社区 作者:王贝 为什么推荐ELK: 当线上服务器出了问题,我们要做的最重要的事情是什么?当需要实时监控跟踪服务器的健康情况,我们又要拿什么去分析?大家一定会说,去看日志,去分析日志.是 ...
- 从线上日志统计接口访问量QPS
这一阵子在面试,连续遇到好几家(大小厂都有)问我的项目线上qps的情况了,说实话,我作为一个大头兵,本来没关注过这个数据,只能含混地给个"大概.也许"的回答. 回来之后,我决定对业 ...
- 查看线上日志利器less
less实用命令 搜索 很多关于命令的解释有点令人困惑,因为前字,forward是向前,before也是前面. 上表示backward 下表示forward 向下搜索 / - 使用一个模式进行搜索,并 ...
- 记一次ArrayList产生的线上OOM问题
前言:本以为(OutOfMemoryError)OOM问题会离我们很远,但在一次生产上线灰度的过程中就出现了Java.Lang.OutOfMemoryError:Java heap space异常,通 ...
- Java架构师线上问题排查,这些命令程序员一定用得到!
Java架构师线上问题排查,这些命令程序员一定用得到! 线上问题排查,以下场景,你遇到过吗? 一.了解机器连接数情况 问题:1.2.3.4的sshd的监听端口是22,如何统计1.2.3.4的sshd服 ...
- 原创 记录一次线上Mysql慢查询问题排查过程
背景 前段时间收到运维反馈,线上Mysql数据库凌晨时候出现慢查询的报警,并把原始sql发了过来: --去除了业务含义的sql update test_user set a=1 where id=1; ...
- 基于Flume+LOG4J+Kafka的日志采集架构方案
本文将会介绍如何使用 Flume.log4j.Kafka进行规范的日志采集. Flume 基本概念 Flume是一个完善.强大的日志采集工具,关于它的配置,在网上有很多现成的例子和资料,这里仅做简单说 ...
随机推荐
- iOS:CoreData数据库的使用三(数据库和tableView表格一起使用)
CoreData数据库是用来持久性存储数据的,那么,我们再从该数据库中取出数据干什么呢?明显的是为了对数据做操作,这个过程中可以将它们直观的显示出来,即通过表格的形式显示出来.CoreData配合ta ...
- cocob优化算法
cocob算法是一个启发式的算法,针对SGD不需要设置learning rate. https://github.com/bremen79/cocob
- FatSecret Platform API
在现阶段饮食类的APP发展的非常迅猛,尤其在校园中,学生只需要凭借一个手机就能买到自己想要的食物,真正做到了足不出户.可是如果我们想独立完成一个app就需要有相应的数据支持,这里给大家介绍一个国外的开 ...
- C++对C的改进(2)
本文地址:http://www.cnblogs.com/archimedes/p/cpp-change2.html,转载请注明源地址 区别一:原型声明的区别 原型声明的概念: 函数要先定义再使用,如果 ...
- Android研究之动态创建UI界面具体解释
Android的基本UI界面一般都是在xml文件里定义好,然后通过activity的setContentView来显示在界面上.这是Android UI的最简单的构建方式.事实上,为了实现更加复 ...
- LoadRunner录制:事务
背景 LoadRunner 会对事务的性能指标进行记录. 添加事务也是为了在测试的时候统计这段脚本运行时用的时间等等,方便定位性能瓶颈. 一个事务可以包含一个请求,也可以包含多个请求.一般把完成一件事 ...
- HTML5 本地存储形式
1.sessionStorage 2.localStorage 3.Database Storage 4.globalStorage 5.兼容性 参考文献 本地持久化存储一直是本地客户端程序优于 we ...
- 配置静态监听解决ORA-12514错误的案例
今天做Linux下DG配置的时候,遇到一个现象.tnsname.ora文件配置都正常,tnsping也正常,监听也正常.可是仍然报ORA-12514错误: SQL> set lin 130 pa ...
- JUnit 3.8 通过反射测试私有方法
测试私有(private)的方法有两种: 1)把目标类的私有方法(修饰符:private)修改为(public),不推荐,因为修改了源程序不佳 2)通过反射 (推荐) 代码演示: 目标程序 Priva ...
- 登陆Oracle EBS的Form遇到问题Internet Explorer has modified this page to help prevent cross-site scripting
登陆Oracle EBS的Form遇到问题Internet Explorer has modified this page to help prevent cross-site scripting 今 ...