hbase安装

下载 wget http://apache.gree.com/apache/hbase/hbase-1.2.11/hbase-1.2.11-bin.tar.gz

tar -zxvf base-1.2.11-bin.tar.gz -C /usr/local/

mv /ussr/local/hbase-1.2.11  /usr/local/hbase

配置环境

vi /etc/profile

export HBASE_HOME=/usr/local/hbase

export PATH=$HBASE_HOME/bin:$PATH

保存退出

source /etc/profile

编辑HBASE_HOME/conf/hbase-env.sh,添加

export JAVA_HOME=/usr/java/jdk1.8.0_191-amd64/jre

export HBASE_CLASSPATH=/usr/local/hadoop/conf

export HBASE_MANAGES_ZK=false                    不使用hbase自带的zookeeper,使用外部的zookeeper管理hbase

编辑 HBASE_HOME/conf/hbase-site.xml

<configuration>
<property>
<!--设置hbasemaster的主机和端口-->
<name>hbase.master</name>
<value>HDP-master:60000</value>
</property>
<property>
<!-- 设置hbase在HDFS上的存储路径,要与hadoop的core-site.xml中的fs.defaultFS路径一致 -->
<name>hbase.rootdir</name>
<value>hdfs://HDP-master:9000/hbase</value>
</property>
<property>
<!-- 指定hbase是分布式的 -->
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<!-- 指定外部zookeeper地址,多个用‘,’分隔 -->
<name>hbase.zookeeper.quorum</name>
<value>HDP-master,HDP-slave1,HDP-slave2</value>
</property> </configuration>

 编辑HBASE_HOME/conf/regionservers   ,设置hbase的从节点(安装regionserver的节点)添加

HDP-slave1

HDP-slave2

退出保存

hbase集群之间要进行数据同步,除了要配置ssh免密连接之外,还要保证各个服务器的时间一致,所以要配置时间同步

选定一个服务器,将其时间设置为标准时间,进行配置

主服务器 编辑 /etc/chrony.conf 添加

allow 10.2.14.0/24                设置允许哪些网段的机器同步本机时间

local stratum 10                  不去同步任何机器的时间,设置时间同步服务器级别

保存退出

systemctl restart chronyd

从服务器 编辑/etc/chrony.conf

server 0.rhel.pool.ntp.org.iburst

...

server 4.rhel.pool.ntp.org iburst

修改为:

server 10.2.xxx.xx iburst          ip为主服务器的IP,设置同步时间的源服务器

保存退出

重启chronyd

systemctl restart chronyd

 

测试,可通过指令查看各机器时间

watch -n 1 date

更正主服务器时间

date -s 10/24/2019

date -s 17:23:22

要启动hbase,需要先依次启动zookeeper,hadoop

启动zookeeper,集群中每台机子都需要执行

zookeeper/bin/zkServer.sh start

zookeeper/bin/zkServer.sh status

启动hadoop(仅需在主节点执行)

sbin/start-all.sh

启动hbase(仅需在主节点执行)

/usr/local/hbase/bin/start-hbase.sh

hbase启动后在master用jps查看时是 HMaster ,在slave上是HRegionServer进程

在命令行 执行hbase shell即可以进入hbase的shell

list                      列出所有的hbase表

describe table_name       查看表结构

scan table_name           遍历表中的数据

get table_name, rowkey    查看表中主键为rowkey的一行数据

get table_nmae,rowkey,column:qualifier   查看表中指定行,指定列簇的指定列的值

get table_name,rowkey,{COLUMN => 'colum_name',TIMESTAMP => 15555699956861,FILTER =>"QualifierFilter(=, 'binary:Gil/0/31')"}  查看表中指定rowkey指定列簇中符合条件的列的数据

hbase相关操作的更多相关文章

  1. Spark-读写HBase,SparkStreaming操作,Spark的HBase相关操作

    Spark-读写HBase,SparkStreaming操作,Spark的HBase相关操作 1.sparkstreaming实时写入Hbase(saveAsNewAPIHadoopDataset方法 ...

  2. HBase相关的一些点

    1.在运行Hbase时,如果遇到出错之后: 可以通过{HBASE_HOME}目录,我的是在/usr/soft/hbase下的logs子目录中的日志文件查看错误原因.2.启动关闭Hadoop和HBase ...

  3. 从零自学Hadoop(20):HBase数据模型相关操作上

    阅读目录 序 介绍 命名空间 表 系列索引 本文版权归mephisto和博客园共有,欢迎转载,但须保留此段声明,并给出原文链接,谢谢合作. 文章是哥(mephisto)写的,SourceLink 序 ...

  4. 从零自学Hadoop(21):HBase数据模型相关操作下

    阅读目录 序 变量 数据模型操作 系列索引 本文版权归mephisto和博客园共有,欢迎转载,但须保留此段声明,并给出原文链接,谢谢合作. 文章是哥(mephisto)写的,SourceLink 序 ...

  5. HBase 相关API操练(三):MapReduce操作HBase

    MapReduce 操作 HBase 在 HBase 系统上运行批处理运算,最方便和实用的模型依然是 MapReduce,如下图所示. HBase Table 和 Region 的关系类似 HDFS ...

  6. HBase相关

    hadoop和hbase节点添加和单独重启 有时候hadoop或hbase集群运行时间久了后,某些节点就会失效,这个时候如果不想重启整个集群(这种情况在很多情况下已经不被允许),这个时候可以单独重启失 ...

  7. 【甘道夫】HBase基本数据操作的详细说明【完整版,精绝】

    介绍 之前具体写了一篇HBase过滤器的文章.今天把基础的表和数据相关操作补上. 本文档參考最新(截止2014年7月16日)的官方Ref Guide.Developer API编写. 全部代码均基于& ...

  8. 从零自学Hadoop(24):Impala相关操作上

    阅读目录 序 数据库相关 表相关 系列索引 本文版权归mephisto和博客园共有,欢迎转载,但须保留此段声明,并给出原文链接,谢谢合作. 文章是哥(mephisto)写的,SourceLink 序 ...

  9. hbase简单操作

    hbase有hbase shell以及hbase 客户端api两种方式进行hbase数据库操作: 首先,hbase shell是在linux命令行进行操作,输入hbase shell命令,进入shel ...

随机推荐

  1. 搭建 Optix 环境

    我参考了 第0个示例 OptixHello 学习Optix的工程配置以及基本框架 的配置过程,该文对于 Optix 的框架介绍的很好,但是按照该文配置遇到了一些问题,我花费了一番功夫自己摸索终于配置好 ...

  2. new String(request.getParameter("userID").trim().getBytes("8859_1"))的含义是什么?

    new String(request.getParameter("userID").trim().getBytes("8859_1")) request.get ...

  3. 201871010114-李岩松《面向对象程序设计(java)》第十六周学习总结

    项目 内容 这个作业属于哪个课程 https://www.cnblogs.com/nwnu-daizh/ 这个作业的要求在哪里 https://www.cnblogs.com/nwnu-daizh/p ...

  4. 数据可视化-matplotlib包

    pyplot官网教程https://matplotlib.org/users/pyplot_tutorial.html #导入matplotlib的pyplot模块 import matplotlib ...

  5. Java面试题的个人总结

    面试总结 第一轮:电话初面 第二轮:技能面谈[技能职位尽量避免多谈处理上的作业] 第三轮:高管复试 第四轮:HR终究供认 一面:首要供认对阿里的意向度(假定异地更会考虑对作业地址(杭州)的意向度!阿里 ...

  6. [译]基于ASP.NET Core 3.0的ABP v0.21已发布

    基于ASP.NET Core 3.0的ABP v0.21已发布 在微软发布仅仅一个小时后, 基于ASP.NET Core 3.0的ABP v0.21也紧跟着发布了. v0.21没有新功能.它只是升级到 ...

  7. IDEA springboot配置

    基于springboot2.1.7 springboot项目创建 springboot热部署 springboot配置swagger2 springboot配置mybatis springboot配置 ...

  8. python同名函数同名参数问题

    如果python有两个函数的函数名与参数列表都相同那么调用该函数时,哪个函数在后,则哪个被最终调用. 举例如下: def test(): print "before hello" ...

  9. java在hashmap初始化时赋初值

    Java中的HashMap是一种常用的数据结构,一般用来做数据字典或者Hash查找的容器. 一般我们初始化并赋初值是这样做的: HashMap<String, Object> map = ...

  10. 使用码云,GitHub进行版本控制,并通过WebHook进行自动部署

    我们通常需要在 PUSH 代码到远程仓库时,线上环境会自动进行代码同步,这时候就需要用到WebHook,它会自动回调我们设定的http地址. 通过请求我们自已编写的脚本,来拉取代码,实现与远程仓库代码 ...