Flume 组件安装配置
下载和解压 Flume
- 实验环境可能需要回至第四,五,六章(hadoop和hive),否则后面传输数据可能报错(猜测)!
- 可 以 从 官 网 下 载 Flume 组 件 安 装 包 , 下 载 地 址 如 下 URL 链 接 所 示:https://archive.apache.org/dist/flume/1.6.0/
使用 root用户解压 Flume安装包到“/usr/local/src”路径,并修改解压后文件夹名为 flume
[root@master ~]#tar zxvf /opt/software/apache-flume-1.6.0-bin.tar.gz -C /usr/local/src
[root@master ~]#cd /usr/local/src/
[root@master ~]#mv apache-flume-1.6.0-bin/ flume #修改 Flume安装路径文件夹名称
[root@master ~]#chown -R hadoop:hadoop flume/ #修改文件夹归属用户和归属组为 hadoop用户和 hadoop组
Flume 组件部署
步骤一:使用 root 用户设置 Flume 环境变量,并使环境变量对所有用户生效
[root@master ~]#vi /etc/profile #编辑系统环境变量配置文件
# set flume environment
export FLUME_HOME=/usr/local/src/flume #Flume安装路径
export PATH=$PATH:$FLUME_HOME/bin #添加系统 PATH环境变量
步骤二:修改 Flume 相应配置文件
#首先,切换到 hadoop用户,并切换当前工作目录到 Flume的配置文件夹。
[root@master ~]#su - hadoop
[hadoop@master ~]$source /etc/profile
[hadoop@master ~]$cd /usr/local/src/flume/conf
#拷贝 flume-env.sh.template文件并重命名为 flume-env.sh
[hadoop@master ~]$cp flume-env.sh.template flume-env.sh
步骤三:修改并配置 flume-env.sh 文件
#删除 JAVA_HOME变量前的注释,修改为 JDK的安装路径
[hadoop@master ~]$ vi /usr/local/src/flume/conf/flume-env.sh
#修改 JAVA_HOME参数值为 jdk安装路径
export JAVA_HOME=/usr/local/src/jdk
#使用 flume-ng version 命令验证安装是否成功,若能够正常查询 Flume组件版本为1.6.0,则表示安装成功
[hadoop@master ~]$ flume-ng version
Flume 1.6.0 #查询到 Flume版本为 1.6.0
Source code repository: https://git-wip-us.apache.org/repos/asf/flume.git
Revision: 2561a23240a71ba20bf288c7c2cda88f443c2080
Compiled by hshreedharan on Mon May 11 11:15:44 PDT 2015
From source with checksum b29e416802ce9ece3269d34233baf43f
#如果报error并出现版本号则可能是环境文件冲突
vim /usr/local/src/hbase/conf/hbase-env.sh
修改:

使用 Flume 发送和接受信息
通过 Flume将 Web服务器中数据传输到 HDFS中
步骤一:在 Flume 安装目录中创建 simple-hdfs-flume.conf 文件
[hadoop@master ~]$ cd /usr/local/src/flume/
[hadoop@master ~]$ vi /usr/local/src/flume/simple-hdfs-flume.conf
#写入:
a1.sources=r1
a1.sinks=k1
a1.channels=c1
a1.sources.r1.type=spooldir
a1.sources.r1.spoolDir=/usr/local/src/hadoop/logs/
a1.sources.r1.fileHeader=true
a1.sinks.k1.type=hdfs
a1.sinks.k1.hdfs.path=hdfs://master:9000/tmp/flume
a1.sinks.k1.hdfs.rollsize=1048760
a1.sinks.k1.hdfs.rollCount=0
a1.sinks.k1.hdfs.rollInterval=900
a1.sinks.k1.hdfs.useLocalTimeStamp=true
a1.channels.c1.type=file
a1.channels.c1.capacity=1000
a1.channels.c1.transactionCapacity=100
a1.sources.r1.channels = c1
a1.sinks.k1.channel = c1
#测试下是否能访问master:9000
步骤二:使用 flume-ng agent 命令加载 simple-hdfs-flume.conf 配置信息,启动 flume 传输数据
[hadoop@master flume] $ flume-ng agent --conf-file simple-hdfs-flume.conf --name a1
#如果一直在输出则表面成功,否则报错
#ctrl+c 退出 flume 传输
#ctrl+z
步骤三:查看 Flume 传输到 HDFS 的文件,若能查看到 HDFS 上/tmp/flume 目录有传输的数据文件,则表示数据传输成功
[hadoop@master flume] $ hdfs dfs -ls /tmp/flume #查看HDFS文件系统/tmp/f1ume目录下文件
-rw-r--r-- 2 hadoop super group 1325 2022-04-29 17:13 /tmp/flume/FlumeData.1559747635008
-rw-r--r-- 2 hadoop super group 1344 2022-04-29 17:13 /tmp/flume/F1umeData.1559747635009
-rw-r--r-- 2 hadoop super qroup 1442 2022-04-29 17:13 /tmp/flume/FlumeData.1559747635010




Flume 组件安装配置的更多相关文章
- ZooKeeper 组件安装配置
ZooKeeper 组件安装配置 下载和安装 ZooKeeper ZooKeeper最新的版本可以通过官网 http://hadoop.apache.org/zookeeper/ 来获取,安装 Zoo ...
- Hive 组件安装配置
下载和解压安装文件 基础环境和安装准备 Hive组件的部署规划和软件包路径如下: (1)当前环境中已安装 Hadoop全分布系统 (2)本地安装 MySQL数据库(账号 root,密码 Passwor ...
- Flume的安装配置
flume是一个分布式.可靠.和高可用的海量日志采集.聚合和传输的系统.支持在日志系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方(比如文本.HDF ...
- 【Hadoop】10、Flume组件
目录 Flume组件安装配置 1.下载和解压 Flume 2.Flume 组件部署 3.使用 Flume 发送和接受信息 Flume组件安装配置 1.下载和解压 Flume # 传Flume安装包 [ ...
- hadoop伪分布式组件安装
一.版本建议 Centos V7.5 Java V1.8 Hadoop V2.7.6 Hive V2.3.3 Mysql V5.7 Spark V2.3 Scala V2.12.6 Flume V1. ...
- kerberos安装配置
目录 前言 服务端安装 组件安装 配置krb5.conf 配置kdc.conf 配置kadm5.acl 创建kdc数据库 在server端创建一个管理员账号,方便远程登录管理kerberos 正式启动 ...
- 01 Flume系列(一)安装配置
01 Flume系列(一)安装配置 Flume(http://flume.apache.org/) is a distributed, reliable, and available service ...
- 具体图解 Flume介绍、安装配置
写在前面一: 本文总结"Hadoop生态系统"中的当中一员--Apache Flume 写在前面二: 所用软件说明: 一.什么是Apache Flume 官网:Flume is a ...
- Linux安装配置Flume
概述 Apache Flume是一个分布式,可靠且可用的系统,用于高效地收集,汇总和将来自多个不同源的大量日志数据移动到集中式数据存储.Apache Flume的使用不仅限于日志数据聚合.由于数据源是 ...
随机推荐
- 记一次grpc server内存/吞吐量优化
背景 最近,上线的采集器忽然时有OOM.采集器本质上是一个grpc服务,网络设备通过grpc协议将数据上报后,采集器进行格式等整理后,发往下一个系统(比如分析,存储). 打开运行环境,发现特性如下: ...
- 从Hadder看蛋白质分子中的加氢算法
技术背景 PDB(Protein Data Bank)是一种最常用于存储蛋白质结构的文件.而我们在研究蛋白质构象时,往往更多的是考虑其骨架,因此在很多pdb文件中直接去掉了氢原子.但是在我们构建蛋白质 ...
- Consider defining a bean of type 'redis.clients.jedis.JedisPool' in your configuration.
报错信息 原因是没有Jedispool没有注入 import com.fasterxml.jackson.annotation.JsonAutoDetect; import com.fasterxml ...
- 面试突击62:group by 有哪些注意事项?
注意:本文以下内容基于 MySQL 5.7 InnoDB 数据库引擎. 1.group by 后面不能加 where 在 MySQL 中,所有的 SQL 查询语法要遵循以下语法顺序: select f ...
- Grammarly for Chrome-语法、用词自动检查
从语法和拼写到风格和语气,Grammarly帮助你消除写作错误,找到完美的词语来表达自己.当你在Gmail.Twitter.LinkedIn和几乎任何你发现自己在写作的地方写作时,你都会从Gramma ...
- MySQL--排序检索数据(ORDER BY)
检索出的数据并不是以纯粹的随机顺序显示的.如果不排序,数据一般将以它在底层表中出现的顺序显示.这可以是数据最初添加到表中的顺序.但是,如果数据后来进行过更新或删除,则此顺序将会受到MySQL重用回收存 ...
- 5-5 SpringGateway 网关
SpringGateway 网关 奈非框架简介 早期(2020年前)奈非提供的微服务组件和框架受到了很多开发者的欢迎 这些框架和Spring Cloud Alibaba的对应关系我们要知道 Nacos ...
- 浅谈spring-createBean
目录 找到BeanClass并且加载类 实例化前 实例化 Supplier创建对象 工厂方法创建对象 方法一 方法二 推断构造方法 BeanDefionition 的后置处理 实例化后 属性填充 sp ...
- Go 接口:深入内部原理
接口的基本概念不在这里赘述,详情请看第十六章:接口 nil 非空? package main func main() { var obj interface{} obj = 1 println(obj ...
- &&与||的优先级比较
&&与||的优先级比较类似于一种思维体操,更多的是造成矛盾,使得两者因为先后顺序的不同而造成的不同结果,当然有时候需要注意c语言中的短路运算. 方法1. 代码如下: 点击查看代码 #i ...