大数据hbase分布式安装及其部署。

首先要启动Hadoop以及zookeeper,可以参考前面发布的文章。

将hbase的包上传至master节点

这里我使用的是1.3.6的版本,具体的根据自己的版本来。

~~~[root@master ~]# ls
[root@master ~]# ls
hbase-1.3.6-bin.tar.gz


然后解压hbase的包到当前的目录。

[root@master ~]# tar -zxvf hbase-1.3.6-bin.tar.gz


查看解压后Hbase目录中的文件

[root@master ~]# cd hbase-1.3.6
[root@master hbase-1.3.6]# ll
total 420
drwxr-xr-x 4 503 games 4096 Oct 14 2019 bin
-rw-r–r-- 1 503 games 197073 Oct 15 2019 CHANGES.txt
drwxr-xr-x 2 503 games 4096 Apr 26 09:08 conf
drwxr-xr-x 12 503 games 4096 Oct 15 2019 docs
drwxr-xr-x 7 503 games 75 Oct 15 2019 hbase-webapps
-rw-r–r-- 1 503 games 262 Oct 5 2019 LEGAL
drwxr-xr-x 3 root root 8192 Apr 26 08:34 lib
-rw-r–r-- 1 503 games 143083 Oct 15 2019 LICENSE.txt
drwxr-xr-x 2 root root 4096 Apr 26 09:11 logs
-rw-r–r-- 1 503 games 47316 Oct 15 2019 NOTICE.txt
-rw-r–r-- 1 503 games 1477 Oct 11 2019 README.txt


#### 配置Hbase 进入到conf配置目录中,需要修改三个文件,具体如下: 1.配置hbase-env.sh文件

[root@master hbase-1.3.6]# cd conf/
[root@master conf]# ls
hadoop-metrics2-hbase.properties hbase-policy.xml log4j.properties
hbase-env.cmd hbase-site.xml regionservers
hbase-env.sh log4j-hbtop.properties
[root@master conf]# vi hbase-env.sh

然后找到配置Java变量这一行,去除前面的#号,并将内容修改如下

export JAVA_HOME=/opt/bigdata/jdk1.8.0_161(这是我的Java环境变量,具体的根据自己真实的路径填写)

然后在这条命令下添加以下内容

export HBASE_MANAGES_ZK=false (意思是不使用自带zookeeper管理HBase集群)

最后保存退出


2.配置hbase-site.xml文件,将以下内容代替之前的内容。
<configuration>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.rootdir</name>
<value>hdfs://master:9000/hbase</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>master,node1,node2</value> (这个是自己的节点名称)
</property>
<property>
<name>hbase.master.info.port</name>
<value>60010</value>
</property>
</configuration>

3.配置regionservers文件

[root@master conf]# vi regionservers
node1
node2

**** 注意添加的是你自己的节点名称。


配置Hbase的环境变量并且验证Hbase集群

[root@master ~]# vi .bash_profile

添加以下内容
#HBase
export HBASE_HOME=/root/hbase-1.3.6
export PATH=HBASEHOME/bin:HBASE_HOME/bin:HBASEH​OME/bin:PATH
export HADOOP_CLASSPATH=$HBASE_HOME/lib/*
然后执行以下命令使环境变量生效。

[root@master ~]# source .bash_profile


将配置好的HBase文件夹复制到从节点

[root@master ~]# scp -r hbase-1.3.6 node1:~/

[root@master ~]# scp -r hbase-1.3.6 node2:~/


在master节点启动Hbase集群

[root@master ~]# start-hbase.sh

然后查看各个节点的jps

[root@master ~]# jps
4788 HMaster
5240 Jps
3835 NameNode
4588 QuorumPeerMain
4255 ResourceManager

[root@node1 ~]# jps
2866 DataNode
2981 SecondaryNameNode
3061 NodeManager
3207 QuorumPeerMain
3293 HRegionServer
3581 Jps

[root@node2 ~]# jps
2739 DataNode
3076 HRegionServer
2854 NodeManager
3000 QuorumPeerMain
3372 Jps

注意!!! 检查mater节点是否出现HMaster,另外两个节点是否出现HRegionServer。


利用hbase shell进入HBase命令行。

[root@master ~]# hbase shell
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/root/hbase-1.3.6/lib/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/opt/bigdata/hadoop-3.0.0/share/hadoop/common/lib/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
SLF4J: Actual binding is of type [org.slf4j.impl.Log4jLoggerFactory]
HBase Shell; enter ‘help’ for list of supported commands.
Type “exit” to leave the HBase Shell
Version 1.3.6, r806dc3625c96fe2cfc03048f3c54a0b38bc9e984, Tue Oct 15 01:55:41 PDT 2019

hbase(main):001:0>


至此hbase搭建就全部完毕了,欢迎大家留言讨论!!!!

大数据hbase分布式安装及其部署。的更多相关文章

  1. 第四章:大数据 の HBase 基础

    本课主题 NoSQL 数据库介绍 HBase 基本操作 HBase 集群架构与设计介紹 HBase 与HDFS的关系 HBase 数据拆分和紧缩 引言 介绍什么是 NoSQL,NoSQL 和 RDBM ...

  2. CentOS6安装各种大数据软件 第九章:Hue大数据可视化工具安装和配置

    相关文章链接 CentOS6安装各种大数据软件 第一章:各个软件版本介绍 CentOS6安装各种大数据软件 第二章:Linux各个软件启动命令 CentOS6安装各种大数据软件 第三章:Linux基础 ...

  3. 第五章:大数据 の HBase 进阶

    本课主题 HBase 读写数据的流程 HBase 性能优化和最住实践 HBase 管理和集群操作 HBase 备份和复制 引言 前一篇 HBase 基础 (HBase 基础) 简单介绍了NoSQL是什 ...

  4. 大数据【八】Flume部署

    如果说大数据中分布式收集日志用的是什么,你完全可以回答Flume!(面试小心问到哦) 首先说一个复制本服务器文件到目标服务器上,需要目标服务器的ip和密码: 命令: scp  filename   i ...

  5. CDH构建大数据平台-Kerberos高可用部署【完结篇】

    CDH构建大数据平台-Kerberos高可用部署[完结篇] 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任.  一.安装Kerberos相关的软件包并同步配置文件 1>.实验环境 ...

  6. 大数据之pig安装

    大数据之pig安装 1.下载 pig download 2. 解压安装 mapreduce模式安装: 1:设置HADOOP_HOME,如果pig所在节点不是集群中的节点,那就需要把集群中使用的hado ...

  7. 大白话详解大数据HBase核心知识点,老刘真的很用心(2)

    前言:老刘目前为明年校招而努力,写文章主要是想用大白话把自己复习的大数据知识点详细解释出来,拒绝资料上的生搬硬套,做到有自己的理解! 01 HBase知识点 第6点:HRegionServer架构 为 ...

  8. 大白话详解大数据HBase核心知识点,老刘真的很用心(3)

    老刘目前为明年校招而努力,写文章主要是想用大白话把自己复习的大数据知识点详细解释出来,拒绝资料上的生搬硬套,做到有自己的理解! 01 HBase知识点(3) 第13点:HBase表的热点问题 什么是热 ...

  9. 新闻网大数据实时分析可视化系统项目——6、HBase分布式集群部署与设计

    HBase是一个高可靠.高性能.面向列.可伸缩的分布式存储系统,利用Hbase技术可在廉价PC Server上搭建 大规模结构化存储集群. HBase 是Google Bigtable 的开源实现,与 ...

随机推荐

  1. Array.forEach原理,仿造一个类似功能

    Array.forEach原理,仿造一个类似功能 array.forEach // 设一个arr数组 let arr = [12,45,78,165,68,124]; let sum = 0; // ...

  2. Python学习笔记:set集合类型所有方法汇总

    ################################################## 集合的作用是:# 1.获得两个集合之间某种关系的集合(比如求两个集合的交集)# 2.计算集合之间的 ...

  3. 曹工说Redis源码(1)-- redis debug环境搭建,使用clion,达到和调试java一样的效果

    概要 最近写了spring系列,这个系列还在进行中,然后有些同学开始叫我大神,然后以为我各方面都比较厉害,当然了,我是有自知之明的,大佬大神什么的,当作一个称呼就好,如果真的以为自己就是大神,那可能就 ...

  4. Kitty-Cloud环境准备

    项目地址 https://github.com/yinjihuan/kitty-cloud 开发工具 开发工具目前对应的都是我本机的一些工具,大家可以根据自己平时的习惯选择对应的工具即可. 工具 说明 ...

  5. ftp 无法显示远程文件夹

    翻阅了网上前辈们的答案,都未能解决,所以就研究了一下 不需要防火墙的情况,关闭防火墙即可 下面使用的iptables防火墙验证的,其他的请自行验证 研究了好久,发现ftp使用端口波动很大,大概在300 ...

  6. linux下使用笔记本的相关设置

    目录 无线连接 Wi-Fi 蓝牙 触摸板 电源管理 电源管理工具 电源相关行为的响应动作 按键和盖子的响应动作 电池低电量的响应动作 处理器调整 调频工具 关闭睿频 intel_pstate 休眠配置 ...

  7. 将本地项目关联到git上面

    1.github上面创建新项目 2.初始化项目-------------可忽略 首先加入git提交忽略的文件.gitignore文件 .idea 忽略以.idea文件logs/  忽略logs文件夹* ...

  8. 1021 Deepest Root (25 分)

    A graph which is connected and acyclic can be considered a tree. The height of the tree depends on t ...

  9. 标准与扩展ACL

    标准与扩展ACL 案例1:配置标准ACL 案例2:配置扩展ACL 案例3:配置标准命名ACL 配置扩展命名ACL 1 案例1:配置标准ACL 1.1 问题 络调通后,保证网络是通畅的.同时也很可能出现 ...

  10. C语言 刷新缓冲区

    fflush int fflush(FILE* stream); 用于清空文件缓冲区,如果文件是以写的方式打开 的,则把缓冲区内容写入文件. eg: 1. #include <stdio.h&g ...