flume中HdfsSink参数说明
flume到hdfsSink:
| type | hdfs |
| path |
写入hdfs的路径,需要包含文件系统标识,比如:hdfs://namenode/flume/webdata/ 可以使用flume提供的日期及%{host}表达式。 |
|
filePrefix |
默认值:FlumeData 写入hdfs的文件名前缀,可以使用flume提供的日期及%{host}表达式 |
| fileSuffix | 写入hdfs的文件名后缀,比如:.lzo .log等 |
| inUsePrefix | 临时文件的文件名前缀,hdfs sink会先往目标目录中写临时文件,再根据相关规则重命名成最终目标文件 |
|
inUseSuffix |
默认值:.tmp 临时文件的文件名后缀 |
|
rollInterval |
默认值:30 hdfs sink间隔多长将临时文件滚动成最终目标文件,单位:秒; 如果设置成0,则表示不根据时间来滚动文件; 注:滚动(roll)指的是,hdfs sink将临时文件重命名成最终目标文件,并新打开一个临时文件来写入数据; |
|
rollSize |
默认值:1024 当临时文件达到该大小(单位:bytes)时,滚动成目标文件; 如果设置成0,则表示不根据临时文件大小来滚动文件 |
|
rollCount |
默认值:10 当events数据达到该数量时候,将临时文件滚动成目标文件; 如果设置成0,则表示不根据events数据来滚动文件; |
|
idleTimeout |
默认值:0 当目前被打开的临时文件在该参数指定的时间(秒)内,没有任何数据写入,则将该临时文件关闭并重命名成目标文件; |
|
batchSize |
默认值:100 每个批次刷新到HDFS上的events数量; |
|
codeC |
文件压缩格式,包括:gzip, bzip2, lzo, lzop, snappy |
|
fileType |
默认值:SequenceFile 文件格式,包括:SequenceFile, DataStream,CompressedStream 当使用DataStream时候,文件不会被压缩,不需要设置hdfs.codeC; 当使用CompressedStream时候,必须设置一个正确的hdfs.codeC值; |
|
maxOpenFiles |
默认值:5000
最大允许打开的HDFS文件数,当打开的文件数达到该值,最早打开的文件将会被关闭; |
|
minBlockReplicas |
默认值:HDFS副本数
写入HDFS文件块的最小副本数。 该参数会影响文件的滚动配置,一般将该参数配置成1,才可以按照配置正确滚动文件。 |
|
writeFormat |
写sequence文件的格式。包含:Text, Writable(默认) |
|
callTimeout |
默认值:10000 执行HDFS操作的超时时间(单位:毫秒); |
|
threadsPoolSize |
默认值:10
hdfs sink启动的操作HDFS的线程数。 |
|
rollTimerPoolSize |
默认值:1
hdfs sink启动的根据时间滚动文件的线程数。 |
|
kerberosPrincipal |
HDFS安全认证kerberos配置 |
|
kerberosKeytab |
HDFS安全认证kerberos配置; |
|
proxyUser |
代理用户 |
|
round |
默认值:false
是否启用时间上的”舍弃”,这里的”舍弃”,类似于”四舍五入”,后面再介绍。如果启用,则会影响除了%t的其他所有时间表达式; |
|
roundValue |
默认值:1
时间上进行“舍弃”的值 |
|
roundUnit |
默认值:seconds
时间上进行”舍弃”的单位,包含:second,minute,hour 示例: a1.sinks.k1.hdfs.path = /flume/events/%y-%m-%d/%H%M/%S a1.sinks.k1.hdfs.round = true a1.sinks.k1.hdfs.roundValue = 10 a1.sinks.k1.hdfs.roundUnit = minute 当时间为2015-10-16 17:38:59时候,hdfs.path依然会被解析为: /flume/events/20151016/17:30/00 因为设置的是舍弃10分钟内的时间,因此,该目录每10分钟新生成一个。 |
|
timeZone |
默认值:Local Time
时区。 |
|
useLocalTimeStamp |
默认值:flase
是否使用当地时间。 |
|
closeTries |
默认值:0
hdfs sink关闭文件的尝试次数; 如果设置为1,当一次关闭文件失败后,hdfs sink将不会再次尝试关闭文件,这个未关闭的文件将会一直留在那,并且是打开状态。 设置为0,当一次关闭失败后,hdfs sink会继续尝试下一次关闭,直到成功。 |
|
retryInterval |
默认值:180(秒)
hdfs sink尝试关闭文件的时间间隔,如果设置为0,表示不尝试,相当于于将hdfs.closeTries设置成1. |
|
serializer |
默认值:TEXT
序列化类型。其他还有:avro_event或者是实现了EventSerializer.Builder的类名。 |
flume中HdfsSink参数说明的更多相关文章
- Flume中的HDFS Sink配置参数说明【转】
转:http://lxw1234.com/archives/2015/10/527.htm 关键字:flume.hdfs.sink.配置参数 Flume中的HDFS Sink应该是非常常用的,其中的配 ...
- flume中的agent配置和启动
首先创建一个文件example.conf(touch example.conf) 然后在文件中,进行agent文件的如下的配置(vi example.conf) agent文件的配置:(配置ag ...
- 关于flume中的几个疑惑
文章发自http://www.cnblogs.com/hark0623/p/4205756.html 转载请注明 flume越用越有一些疑惑,这个月中按计划是要阅读flume源码的,我希望能解决我的 ...
- Flume学习——Flume中事务的定义
首先要搞清楚的问题是:Flume中的事务用来干嘛? Flume中的事务用来保证消息的可靠传递. 当使用继承自BasicChannelSemantics的Channel时,Flume强制在操作Chann ...
- flume中sink到hdfs,文件系统频繁产生文件,文件滚动配置不起作用?
在测试hdfs的sink,发现sink端的文件滚动配置项起不到任何作用,配置如下: a1.sinks.k1.type=hdfs a1.sinks.k1.channel=c1 a1.sinks.k1.h ...
- flume中的拦截器
Flume中的拦截器(interceptor),用户Source读取events发送到Sink的时候,在events header中加入一些有用的信息,或者对events的内容进行过滤,完成初步的数据 ...
- Transactional注解中常用参数说明
@Transactional注解中常用参数说明 参 数 名 称 功 能 描 述readOnly ...
- Flume中的flume-env.sh和log4j.properties配置调整建议(图文详解)
GC是内存的回收的意思. Flume中的flume-env.sh配置调整建议 [hadoop@master conf_HostInterceptor]$ pwd /home/hadoop/app/fl ...
- 关于Flume中Chanel.Selector.header解释
flume内置的ChannelSelector有两种,分别是Replicating和Multiplexing. Replicating类型的ChannelSelector会针对每一个Event,拷贝到 ...
随机推荐
- Fiddler高级用法-抓取手机app数据包
在上一篇中介绍了Fiddler的基本使用方法.通过上一篇的操作我们可以直接抓取浏览器的数据包.但在APP测试中,我们需要抓取手机APP上的数据包,应该怎么操作呢? Andriod配置方法 1)确保手机 ...
- Microsoft.ACE.OLEDB.12.0 及其在 MSSQL中的使用
1.Microsoft.ACE.OLEDB.12.0 简介 就是一个数据访问接口,用于在office文件和非office应用程序间传输数据.例如 Microsoft Office Access 201 ...
- Java服务端单元测试指南
https://juejin.im/entry/5acad0806fb9a028cd456236
- C#基础第五天-作业答案-用DataTable制作名片集
.DataTable 实现 DataTable PersonCard = new DataTable(); //创建一个DataTable DataTable PersonCardCopy = new ...
- 搭建Dubbo+Myeclipse2015+Maven3.3.1的过程遇到问题集锦
1. 找不到dubbo2.8.4包的问题 在编译Maven工程的过程中,出现如下问题: Description Resource Path Location Type ArtifactDescript ...
- 6个P2P流媒体开源项目介绍
P2P流媒体开源项目介绍 1. PeerCast 2002年成立,最早的开源P2P流媒体项目.PeerCast把节点按树结构组织起来, 每个频道都是一个树, 直播源是根节点,父节点只给子节点提供数据 ...
- Elastalert 监控
1.logstash 做监控的优劣 适合match-then-alert 的方式 logstash-filter-metric logstash-input-http_poller 无状态.进程间数据 ...
- Linux创建系统用户
#!/bin/bash users_home_front_dir="/data/users/" ssh_user=$1 user_group=$2 server_user_path ...
- php分享十二:分组取前N记录
经常看到问题,如何取出每组的前N条记录 http://blog.csdn.net/acmain_chm/article/details/4126306 问题:有表 如下,要求取出各班前两名(允许并列第 ...
- cocopods 问题
http://www.cocoachina.com/bbs/read.php?tid=1711580