下载和解压 Flume

  • 实验环境可能需要回至第四,五,六章(hadoop和hive),否则后面传输数据可能报错(猜测)!
  • 可 以 从 官 网 下 载 Flume 组 件 安 装 包 , 下 载 地 址 如 下 URL 链 接 所 示:https://archive.apache.org/dist/flume/1.6.0/

使用 root用户解压 Flume安装包到“/usr/local/src”路径,并修改解压后文件夹名为 flume

  1. [root@master ~]#tar zxvf /opt/software/apache-flume-1.6.0-bin.tar.gz -C /usr/local/src
  2. [root@master ~]#cd /usr/local/src/
  3. [root@master ~]#mv apache-flume-1.6.0-bin/ flume #修改 Flume安装路径文件夹名称
  4. [root@master ~]#chown -R hadoop:hadoop flume/ #修改文件夹归属用户和归属组为 hadoop用户和 hadoop组

Flume 组件部署

步骤一:使用 root 用户设置 Flume 环境变量,并使环境变量对所有用户生效

  1. [root@master ~]#vi /etc/profile #编辑系统环境变量配置文件
  2. # set flume environment
  3. export FLUME_HOME=/usr/local/src/flume #Flume安装路径
  4. export PATH=$PATH:$FLUME_HOME/bin #添加系统 PATH环境变量

步骤二:修改 Flume 相应配置文件

  1. #首先,切换到 hadoop用户,并切换当前工作目录到 Flume的配置文件夹。
  2. [root@master ~]#su - hadoop
  3. [hadoop@master ~]$source /etc/profile
  4. [hadoop@master ~]$cd /usr/local/src/flume/conf
  5. #拷贝 flume-env.sh.template文件并重命名为 flume-env.sh
  6. [hadoop@master ~]$cp flume-env.sh.template flume-env.sh

步骤三:修改并配置 flume-env.sh 文件

  1. #删除 JAVA_HOME变量前的注释,修改为 JDK的安装路径
  2. [hadoop@master ~]$ vi /usr/local/src/flume/conf/flume-env.sh
  3. #修改 JAVA_HOME参数值为 jdk安装路径
  4. export JAVA_HOME=/usr/local/src/jdk
  5. #使用 flume-ng version 命令验证安装是否成功,若能够正常查询 Flume组件版本为1.6.0,则表示安装成功
  6. [hadoop@master ~]$ flume-ng version
  7. Flume 1.6.0 #查询到 Flume版本为 1.6.0
  8. Source code repository: https://git-wip-us.apache.org/repos/asf/flume.git
  9. Revision: 2561a23240a71ba20bf288c7c2cda88f443c2080
  10. Compiled by hshreedharan on Mon May 11 11:15:44 PDT 2015
  11. From source with checksum b29e416802ce9ece3269d34233baf43f
  12. #如果报error并出现版本号则可能是环境文件冲突
  13. vim /usr/local/src/hbase/conf/hbase-env.sh
  14. 修改:

使用 Flume 发送和接受信息

通过 Flume将 Web服务器中数据传输到 HDFS中

步骤一:在 Flume 安装目录中创建 simple-hdfs-flume.conf 文件

  1. [hadoop@master ~]$ cd /usr/local/src/flume/
  2. [hadoop@master ~]$ vi /usr/local/src/flume/simple-hdfs-flume.conf
  3. #写入:
  4. a1.sources=r1
  5. a1.sinks=k1
  6. a1.channels=c1
  7. a1.sources.r1.type=spooldir
  8. a1.sources.r1.spoolDir=/usr/local/src/hadoop/logs/
  9. a1.sources.r1.fileHeader=true
  10. a1.sinks.k1.type=hdfs
  11. a1.sinks.k1.hdfs.path=hdfs://master:9000/tmp/flume
  12. a1.sinks.k1.hdfs.rollsize=1048760
  13. a1.sinks.k1.hdfs.rollCount=0
  14. a1.sinks.k1.hdfs.rollInterval=900
  15. a1.sinks.k1.hdfs.useLocalTimeStamp=true
  16. a1.channels.c1.type=file
  17. a1.channels.c1.capacity=1000
  18. a1.channels.c1.transactionCapacity=100
  19. a1.sources.r1.channels = c1
  20. a1.sinks.k1.channel = c1
  21. #测试下是否能访问master:9000

步骤二:使用 flume-ng agent 命令加载 simple-hdfs-flume.conf 配置信息,启动 flume 传输数据

  1. [hadoop@master flume] $ flume-ng agent --conf-file simple-hdfs-flume.conf --name a1
  2. #如果一直在输出则表面成功,否则报错
  3. #ctrl+c 退出 flume 传输
  4. #ctrl+z

步骤三:查看 Flume 传输到 HDFS 的文件,若能查看到 HDFS 上/tmp/flume 目录有传输的数据文件,则表示数据传输成功

  1. [hadoop@master flume] $ hdfs dfs -ls /tmp/flume #查看HDFS文件系统/tmp/f1ume目录下文件
  2. -rw-r--r-- 2 hadoop super group 1325 2022-04-29 17:13 /tmp/flume/FlumeData.1559747635008
  3. -rw-r--r-- 2 hadoop super group 1344 2022-04-29 17:13 /tmp/flume/F1umeData.1559747635009
  4. -rw-r--r-- 2 hadoop super qroup 1442 2022-04-29 17:13 /tmp/flume/FlumeData.1559747635010

Flume 组件安装配置的更多相关文章

  1. ZooKeeper 组件安装配置

    ZooKeeper 组件安装配置 下载和安装 ZooKeeper ZooKeeper最新的版本可以通过官网 http://hadoop.apache.org/zookeeper/ 来获取,安装 Zoo ...

  2. Hive 组件安装配置

    下载和解压安装文件 基础环境和安装准备 Hive组件的部署规划和软件包路径如下: (1)当前环境中已安装 Hadoop全分布系统 (2)本地安装 MySQL数据库(账号 root,密码 Passwor ...

  3. Flume的安装配置

    flume是一个分布式.可靠.和高可用的海量日志采集.聚合和传输的系统.支持在日志系统中定制各类数据发送方,用于收集数据;同时,Flume提供对数据进行简单处理,并写到各种数据接受方(比如文本.HDF ...

  4. 【Hadoop】10、Flume组件

    目录 Flume组件安装配置 1.下载和解压 Flume 2.Flume 组件部署 3.使用 Flume 发送和接受信息 Flume组件安装配置 1.下载和解压 Flume # 传Flume安装包 [ ...

  5. hadoop伪分布式组件安装

    一.版本建议 Centos V7.5 Java V1.8 Hadoop V2.7.6 Hive V2.3.3 Mysql V5.7 Spark V2.3 Scala V2.12.6 Flume V1. ...

  6. kerberos安装配置

    目录 前言 服务端安装 组件安装 配置krb5.conf 配置kdc.conf 配置kadm5.acl 创建kdc数据库 在server端创建一个管理员账号,方便远程登录管理kerberos 正式启动 ...

  7. 01 Flume系列(一)安装配置

    01 Flume系列(一)安装配置 Flume(http://flume.apache.org/) is a distributed, reliable, and available service ...

  8. 具体图解 Flume介绍、安装配置

    写在前面一: 本文总结"Hadoop生态系统"中的当中一员--Apache Flume 写在前面二: 所用软件说明: 一.什么是Apache Flume 官网:Flume is a ...

  9. Linux安装配置Flume

    概述 Apache Flume是一个分布式,可靠且可用的系统,用于高效地收集,汇总和将来自多个不同源的大量日志数据移动到集中式数据存储.Apache Flume的使用不仅限于日志数据聚合.由于数据源是 ...

随机推荐

  1. ssh隧道连接的方式连接数据库

    最好用xshell做隧道连接,其他工具没接触过过 1.先新建一个会话 2.点进刚刚建好的连接,右击属性 3.点进隧道,添加,输入映射到本地的配置 4.完成之后用数据库连接工具连接即可 参考连接: ht ...

  2. Windows下新建隐藏用户名

    Windows下新建隐藏用户名,防止忘记密码

  3. Freeswitch使用originate转dialplan

    概述 Freeswitch是一款非常好用的开源VOIP软交换平台. 最近在对fs做一些功能测试,测试的过程中产生的一个需求,如何从fs发起呼叫并把后续的呼叫流程转到某一个dialplan上,这样在测试 ...

  4. 说什么也要脱单——Python WEB开发:用Tornado框架制作简易【表白墙】网站

    先来哔哔两句:(https://jq.qq.com/?_wv=1027&k=QgGWqAVF) 今天我们要用Python做Web开发,做一个简单的[表白墙]网站.众所周知表白墙的功能普遍更多的 ...

  5. HDFS存储目录分析

    一.介绍 HDFS metadata以树状结构存储整个HDFS上的文件和目录,以及相应的权限.配额和副本因子(replication factor)等.本文基于Hadoop2.6版本介绍HDFS Na ...

  6. centos7解决无法上网的问题

    问题:centos7出现无法进行联网,如下图所示,执行该命令: ping qq.com 出现如下情况: 解决方法: 首先cd到需要修改文件的所在目录下: [root@localhost ~]# cd ...

  7. DTCC 干货分享:Real Time DaaS - 面向TP+AP业务的数据平台架构

      2021年10月20日,Tapdata 创始人唐建法(TJ)受邀出席 DTCC 2021(中国数据库技术大会),并在企业数据中台设计与实践专场上,发表主旨演讲"Real Time Daa ...

  8. labview从入门到出家8(进阶篇)--简单好用的状态机

    labview的状态机类似于一个软件框架的基本单元,好的软件框架和软件思路采用一个好的状态机,就如虎添翼了.这章给大家讲一个本人常用的一个状态机,基本上以前的项目都是建立在这个状态机上完成的,当然网上 ...

  9. gerrit系统如何配置访问控制

    . 版本:v0.3 作者:河东西望 日期:2022-7-13 . 目录 1 关键概念 2 需求场景 3 配置策略 gerrit系统的上手使用有两个难点: 部署repo仓库. 配置访问控制. 想要上手使 ...

  10. umask计算创建文件、目录的默认权限

    很多人以为 创建文件默认权限就是 666-umask=创建文件的默认权限 创建目录的默认权限就是 777-umask=创建目录的默认权限   这种计算其实是不严谨的 为什么我们创建的文件的权限是 64 ...