大数据hbase分布式安装及其部署。

首先要启动Hadoop以及zookeeper,可以参考前面发布的文章。

将hbase的包上传至master节点

这里我使用的是1.3.6的版本,具体的根据自己的版本来。

~~~[root@master ~]# ls
[root@master ~]# ls
hbase-1.3.6-bin.tar.gz


然后解压hbase的包到当前的目录。

[root@master ~]# tar -zxvf hbase-1.3.6-bin.tar.gz


查看解压后Hbase目录中的文件

[root@master ~]# cd hbase-1.3.6
[root@master hbase-1.3.6]# ll
total 420
drwxr-xr-x 4 503 games 4096 Oct 14 2019 bin
-rw-r–r-- 1 503 games 197073 Oct 15 2019 CHANGES.txt
drwxr-xr-x 2 503 games 4096 Apr 26 09:08 conf
drwxr-xr-x 12 503 games 4096 Oct 15 2019 docs
drwxr-xr-x 7 503 games 75 Oct 15 2019 hbase-webapps
-rw-r–r-- 1 503 games 262 Oct 5 2019 LEGAL
drwxr-xr-x 3 root root 8192 Apr 26 08:34 lib
-rw-r–r-- 1 503 games 143083 Oct 15 2019 LICENSE.txt
drwxr-xr-x 2 root root 4096 Apr 26 09:11 logs
-rw-r–r-- 1 503 games 47316 Oct 15 2019 NOTICE.txt
-rw-r–r-- 1 503 games 1477 Oct 11 2019 README.txt


#### 配置Hbase 进入到conf配置目录中,需要修改三个文件,具体如下: 1.配置hbase-env.sh文件

[root@master hbase-1.3.6]# cd conf/
[root@master conf]# ls
hadoop-metrics2-hbase.properties hbase-policy.xml log4j.properties
hbase-env.cmd hbase-site.xml regionservers
hbase-env.sh log4j-hbtop.properties
[root@master conf]# vi hbase-env.sh

然后找到配置Java变量这一行,去除前面的#号,并将内容修改如下

export JAVA_HOME=/opt/bigdata/jdk1.8.0_161(这是我的Java环境变量,具体的根据自己真实的路径填写)

然后在这条命令下添加以下内容

export HBASE_MANAGES_ZK=false (意思是不使用自带zookeeper管理HBase集群)

最后保存退出


2.配置hbase-site.xml文件,将以下内容代替之前的内容。
<configuration>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.rootdir</name>
<value>hdfs://master:9000/hbase</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>master,node1,node2</value> (这个是自己的节点名称)
</property>
<property>
<name>hbase.master.info.port</name>
<value>60010</value>
</property>
</configuration>

3.配置regionservers文件

[root@master conf]# vi regionservers
node1
node2

**** 注意添加的是你自己的节点名称。


配置Hbase的环境变量并且验证Hbase集群

[root@master ~]# vi .bash_profile

添加以下内容
#HBase
export HBASE_HOME=/root/hbase-1.3.6
export PATH=HBASEHOME/bin:HBASE_HOME/bin:HBASEH​OME/bin:PATH
export HADOOP_CLASSPATH=$HBASE_HOME/lib/*
然后执行以下命令使环境变量生效。

[root@master ~]# source .bash_profile


将配置好的HBase文件夹复制到从节点

[root@master ~]# scp -r hbase-1.3.6 node1:~/

[root@master ~]# scp -r hbase-1.3.6 node2:~/


在master节点启动Hbase集群

[root@master ~]# start-hbase.sh

然后查看各个节点的jps

[root@master ~]# jps
4788 HMaster
5240 Jps
3835 NameNode
4588 QuorumPeerMain
4255 ResourceManager

[root@node1 ~]# jps
2866 DataNode
2981 SecondaryNameNode
3061 NodeManager
3207 QuorumPeerMain
3293 HRegionServer
3581 Jps

[root@node2 ~]# jps
2739 DataNode
3076 HRegionServer
2854 NodeManager
3000 QuorumPeerMain
3372 Jps

注意!!! 检查mater节点是否出现HMaster,另外两个节点是否出现HRegionServer。


利用hbase shell进入HBase命令行。

[root@master ~]# hbase shell
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/root/hbase-1.3.6/lib/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/opt/bigdata/hadoop-3.0.0/share/hadoop/common/lib/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
SLF4J: Actual binding is of type [org.slf4j.impl.Log4jLoggerFactory]
HBase Shell; enter ‘help’ for list of supported commands.
Type “exit” to leave the HBase Shell
Version 1.3.6, r806dc3625c96fe2cfc03048f3c54a0b38bc9e984, Tue Oct 15 01:55:41 PDT 2019

hbase(main):001:0>


至此hbase搭建就全部完毕了,欢迎大家留言讨论!!!!

大数据hbase分布式安装及其部署。的更多相关文章

  1. 第四章:大数据 の HBase 基础

    本课主题 NoSQL 数据库介绍 HBase 基本操作 HBase 集群架构与设计介紹 HBase 与HDFS的关系 HBase 数据拆分和紧缩 引言 介绍什么是 NoSQL,NoSQL 和 RDBM ...

  2. CentOS6安装各种大数据软件 第九章:Hue大数据可视化工具安装和配置

    相关文章链接 CentOS6安装各种大数据软件 第一章:各个软件版本介绍 CentOS6安装各种大数据软件 第二章:Linux各个软件启动命令 CentOS6安装各种大数据软件 第三章:Linux基础 ...

  3. 第五章:大数据 の HBase 进阶

    本课主题 HBase 读写数据的流程 HBase 性能优化和最住实践 HBase 管理和集群操作 HBase 备份和复制 引言 前一篇 HBase 基础 (HBase 基础) 简单介绍了NoSQL是什 ...

  4. 大数据【八】Flume部署

    如果说大数据中分布式收集日志用的是什么,你完全可以回答Flume!(面试小心问到哦) 首先说一个复制本服务器文件到目标服务器上,需要目标服务器的ip和密码: 命令: scp  filename   i ...

  5. CDH构建大数据平台-Kerberos高可用部署【完结篇】

    CDH构建大数据平台-Kerberos高可用部署[完结篇] 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任.  一.安装Kerberos相关的软件包并同步配置文件 1>.实验环境 ...

  6. 大数据之pig安装

    大数据之pig安装 1.下载 pig download 2. 解压安装 mapreduce模式安装: 1:设置HADOOP_HOME,如果pig所在节点不是集群中的节点,那就需要把集群中使用的hado ...

  7. 大白话详解大数据HBase核心知识点,老刘真的很用心(2)

    前言:老刘目前为明年校招而努力,写文章主要是想用大白话把自己复习的大数据知识点详细解释出来,拒绝资料上的生搬硬套,做到有自己的理解! 01 HBase知识点 第6点:HRegionServer架构 为 ...

  8. 大白话详解大数据HBase核心知识点,老刘真的很用心(3)

    老刘目前为明年校招而努力,写文章主要是想用大白话把自己复习的大数据知识点详细解释出来,拒绝资料上的生搬硬套,做到有自己的理解! 01 HBase知识点(3) 第13点:HBase表的热点问题 什么是热 ...

  9. 新闻网大数据实时分析可视化系统项目——6、HBase分布式集群部署与设计

    HBase是一个高可靠.高性能.面向列.可伸缩的分布式存储系统,利用Hbase技术可在廉价PC Server上搭建 大规模结构化存储集群. HBase 是Google Bigtable 的开源实现,与 ...

随机推荐

  1. C Cow XOR 奶牛异或

    时间限制 : 10000 MS   空间限制 : 65536 KB 问题描述 农民约翰在喂奶牛的时候被另一个问题卡住了.他的所有N(1 <= N <= 100,000)个奶牛在他面前排成一 ...

  2. Light of future-冲刺Day 2

    目录 归属班级 →2019秋福大软件工程实践Z班 作业要求 →团队作业第五次-项目冲刺 团队名称 未来之光 这个作业的目标 第二天的冲刺总结 作业正文 →Light of future-冲刺Day 2 ...

  3. 整数回文数判断 Python

    判断一个整数是否是回文数.回文数是指正序(从左向右)和倒序(从右向左)读都是一样的整数. 输入:123  输出:false 输入:-121 输出:false 输入:121  输出:true 输入:1  ...

  4. const不同位置带来的区别

    const不同位置带来的区别 今天同学问我数据结构时,我对以下代码懵了一下: template <class T> class Link{ public: T data; Link< ...

  5. K:leetcode 5381.查询带键的排列 这题简单,但我还能优化。精益求精,才是算法的乐趣所在!

    前言: 本题来自leetcode第184场周赛的第二小题.以前参加过周赛,觉得很有趣.苦于最近一段时间比较忙就没坚持参加了(实际上是借口来着....),由于昨晚思考一些事情,导致睡不着,所以起得有点早 ...

  6. 邮件服务TLS/SSL,CA证书

     邮件服务TLS/SSL,CA证书 案例1:OpenSSL及证书服务 案例2:邮件TLS/SSL加密通信 1 案例1:OpenSSL及证书服务 1.1 问题 本案例要求熟悉OpenSSL工具的基本使用 ...

  7. find的基本查询命令《二》

    Linux find命令详解 由于find具有强大的功能,所以它的选项也很多,其中大部分选项都值得我们花时间来了解一下.即使系统中含有网络文件系统( NFS),find命令在该文件系统中同样有效,只你 ...

  8. 部署并测试动态WSGI站点

                                                            部署并测试动态WSGI站点 5.1问题 本例要求为站点webapp0.example.c ...

  9. django发送邮件的坑

    django发送邮件的坑 配置django发邮件的时候本地发送时好好的,但是放到阿里云的服务器上却不能发送. 经过一系列的排查后终于发现是阿里云把25端口给封了. 后来改用smtps的方式发送,更改d ...

  10. Quil-delta-enhanced 简介

    Quill 是一款时下非常热门的富文本编辑器,它拥有非常强大的扩展能力,可以让开发者根据自己的需要编写插件,使编辑器支持的内容类型更加丰富.它之所以能够拥有这么强大的扩展能力,一方面是因为它的架构和 ...