大数据hbase分布式安装及其部署。
大数据hbase分布式安装及其部署。
首先要启动Hadoop以及zookeeper,可以参考前面发布的文章。
将hbase的包上传至master节点
这里我使用的是1.3.6的版本,具体的根据自己的版本来。
~~~[root@master ~]# ls
[root@master ~]# ls
hbase-1.3.6-bin.tar.gz
然后解压hbase的包到当前的目录。
[root@master ~]# tar -zxvf hbase-1.3.6-bin.tar.gz
查看解压后Hbase目录中的文件
[root@master ~]# cd hbase-1.3.6
[root@master hbase-1.3.6]# ll
total 420
drwxr-xr-x 4 503 games 4096 Oct 14 2019 bin
-rw-r–r-- 1 503 games 197073 Oct 15 2019 CHANGES.txt
drwxr-xr-x 2 503 games 4096 Apr 26 09:08 conf
drwxr-xr-x 12 503 games 4096 Oct 15 2019 docs
drwxr-xr-x 7 503 games 75 Oct 15 2019 hbase-webapps
-rw-r–r-- 1 503 games 262 Oct 5 2019 LEGAL
drwxr-xr-x 3 root root 8192 Apr 26 08:34 lib
-rw-r–r-- 1 503 games 143083 Oct 15 2019 LICENSE.txt
drwxr-xr-x 2 root root 4096 Apr 26 09:11 logs
-rw-r–r-- 1 503 games 47316 Oct 15 2019 NOTICE.txt
-rw-r–r-- 1 503 games 1477 Oct 11 2019 README.txt
#### 配置Hbase
进入到conf配置目录中,需要修改三个文件,具体如下:
1.配置hbase-env.sh文件
[root@master hbase-1.3.6]# cd conf/
[root@master conf]# ls
hadoop-metrics2-hbase.properties hbase-policy.xml log4j.properties
hbase-env.cmd hbase-site.xml regionservers
hbase-env.sh log4j-hbtop.properties
[root@master conf]# vi hbase-env.sh
然后找到配置Java变量这一行,去除前面的#号,并将内容修改如下
export JAVA_HOME=/opt/bigdata/jdk1.8.0_161(这是我的Java环境变量,具体的根据自己真实的路径填写)
然后在这条命令下添加以下内容
export HBASE_MANAGES_ZK=false (意思是不使用自带zookeeper管理HBase集群)
最后保存退出
2.配置hbase-site.xml文件,将以下内容代替之前的内容。
<configuration>
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.rootdir</name>
<value>hdfs://master:9000/hbase</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>master,node1,node2</value> (这个是自己的节点名称)
</property>
<property>
<name>hbase.master.info.port</name>
<value>60010</value>
</property>
</configuration>
3.配置regionservers文件
[root@master conf]# vi regionservers
node1
node2
**** 注意添加的是你自己的节点名称。
配置Hbase的环境变量并且验证Hbase集群
[root@master ~]# vi .bash_profile
添加以下内容
#HBase
export HBASE_HOME=/root/hbase-1.3.6
export PATH=HBASEHOME/bin:HBASE_HOME/bin:HBASEHOME/bin:PATH
export HADOOP_CLASSPATH=$HBASE_HOME/lib/*
然后执行以下命令使环境变量生效。
[root@master ~]# source .bash_profile
将配置好的HBase文件夹复制到从节点
[root@master ~]# scp -r hbase-1.3.6 node1:~/
[root@master ~]# scp -r hbase-1.3.6 node2:~/
在master节点启动Hbase集群
[root@master ~]# start-hbase.sh
然后查看各个节点的jps
[root@master ~]# jps
4788 HMaster
5240 Jps
3835 NameNode
4588 QuorumPeerMain
4255 ResourceManager
[root@node1 ~]# jps
2866 DataNode
2981 SecondaryNameNode
3061 NodeManager
3207 QuorumPeerMain
3293 HRegionServer
3581 Jps
[root@node2 ~]# jps
2739 DataNode
3076 HRegionServer
2854 NodeManager
3000 QuorumPeerMain
3372 Jps
注意!!! 检查mater节点是否出现HMaster,另外两个节点是否出现HRegionServer。
利用hbase shell进入HBase命令行。
[root@master ~]# hbase shell
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/root/hbase-1.3.6/lib/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/opt/bigdata/hadoop-3.0.0/share/hadoop/common/lib/slf4j-log4j12-1.7.25.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
SLF4J: Actual binding is of type [org.slf4j.impl.Log4jLoggerFactory]
HBase Shell; enter ‘help’ for list of supported commands.
Type “exit” to leave the HBase Shell
Version 1.3.6, r806dc3625c96fe2cfc03048f3c54a0b38bc9e984, Tue Oct 15 01:55:41 PDT 2019
hbase(main):001:0>
至此hbase搭建就全部完毕了,欢迎大家留言讨论!!!!
大数据hbase分布式安装及其部署。的更多相关文章
- 第四章:大数据 の HBase 基础
本课主题 NoSQL 数据库介绍 HBase 基本操作 HBase 集群架构与设计介紹 HBase 与HDFS的关系 HBase 数据拆分和紧缩 引言 介绍什么是 NoSQL,NoSQL 和 RDBM ...
- CentOS6安装各种大数据软件 第九章:Hue大数据可视化工具安装和配置
相关文章链接 CentOS6安装各种大数据软件 第一章:各个软件版本介绍 CentOS6安装各种大数据软件 第二章:Linux各个软件启动命令 CentOS6安装各种大数据软件 第三章:Linux基础 ...
- 第五章:大数据 の HBase 进阶
本课主题 HBase 读写数据的流程 HBase 性能优化和最住实践 HBase 管理和集群操作 HBase 备份和复制 引言 前一篇 HBase 基础 (HBase 基础) 简单介绍了NoSQL是什 ...
- 大数据【八】Flume部署
如果说大数据中分布式收集日志用的是什么,你完全可以回答Flume!(面试小心问到哦) 首先说一个复制本服务器文件到目标服务器上,需要目标服务器的ip和密码: 命令: scp filename i ...
- CDH构建大数据平台-Kerberos高可用部署【完结篇】
CDH构建大数据平台-Kerberos高可用部署[完结篇] 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 一.安装Kerberos相关的软件包并同步配置文件 1>.实验环境 ...
- 大数据之pig安装
大数据之pig安装 1.下载 pig download 2. 解压安装 mapreduce模式安装: 1:设置HADOOP_HOME,如果pig所在节点不是集群中的节点,那就需要把集群中使用的hado ...
- 大白话详解大数据HBase核心知识点,老刘真的很用心(2)
前言:老刘目前为明年校招而努力,写文章主要是想用大白话把自己复习的大数据知识点详细解释出来,拒绝资料上的生搬硬套,做到有自己的理解! 01 HBase知识点 第6点:HRegionServer架构 为 ...
- 大白话详解大数据HBase核心知识点,老刘真的很用心(3)
老刘目前为明年校招而努力,写文章主要是想用大白话把自己复习的大数据知识点详细解释出来,拒绝资料上的生搬硬套,做到有自己的理解! 01 HBase知识点(3) 第13点:HBase表的热点问题 什么是热 ...
- 新闻网大数据实时分析可视化系统项目——6、HBase分布式集群部署与设计
HBase是一个高可靠.高性能.面向列.可伸缩的分布式存储系统,利用Hbase技术可在廉价PC Server上搭建 大规模结构化存储集群. HBase 是Google Bigtable 的开源实现,与 ...
随机推荐
- 剑指offer刷题总结
★ 二维数组的查找 在一个二维数组中(每个一维数组的长度相同),每一行都按照从左到右递增的顺序排序,每一列都按照从上到下递增的顺序排序.请完成一个函数,输入这样的一个二维数组和一个整数,判断数组中是否 ...
- pip安装超时问题-pip._vendor.urllib3.exceptions.ReadTimeoutError: HTTPSConnectionPool(host='files.pythonhosted.org', port=443): Read timed out.
手动设置延时:(推荐) pip --default-timeout=100 install nibabel --或者不使用缓存pip --no-cache-dir install Pillow 更改 ...
- nosql Redis命令操作详解
Redis命令操作详解 一.key pattern 查询相应的key (1)redis允许模糊查询key 有3个通配符 *.?.[] (2)randomkey:返回随机key (3)type key: ...
- sql 模块 pymysql 数据库操作
1. 添加一个部门. import pymysql def main(): no = int(input('编号: ')) name = input('名字: ') loc = input('所在地: ...
- [noip2016]蚯蚓<单调队列+模拟>
题目链接:https://vijos.org/p/2007 题目链接:https://www.luogu.org/problem/show?pid=2827#sub 说实话当两个网站给出AC后,我很感 ...
- RecyclerView 的 Item 的单击事件
RecyclerView 的每个Item的点击事件并没有像 ListView 一样封装在组件中,需要 Item 的单击事件时就需要自己去实现,在 Adapter 中为RecyclerView 添加单击 ...
- Django-利用Form组件和ajax实现的注册
利用Form组件和ajax实现的注册 一.注册相关的知识点 1.Form组件 我们一般写Form的时候都是把它写在views视图里面,那么他和我们的视图函数也不影响,我们可以吧它单另拿出来,在应用下面 ...
- 实验十三 MySQL多用户事务管理
实验十三 MySQL多用户事务管理 一. 实验内容: 1. 事务机制的使用 2. 锁机制的使用 二. 实验项目:员工管理数据库 用于企业管理的员工管理数据库,数据库名为YGGL中,YGGL数据库中 ...
- codeforces 1038a(找最长的前k个字母出现相同次数的字符串)
codeforces 1038a You are given a string s of length n, which consists only of the first k letters of ...
- Vertica的这些事(十四)——Vertica实时消费kafka实现
一. 安装环境 Vertica官方提供了消费kafka的方法,需要注意版本对应 消费kafka原理,是Vertica提供的Udx 首先需要安装相应的环境 /${vertica}/packages/ka ...