1. 进入hbase shell console
      $HBASE_HOME/bin/hbase shell
      如果有kerberos认证,需要事先使用相应的keytab进行一下认证(使用kinit命令),认证成功之后再使用hbase shell进入可以使用whoami命令可查看当前用户

      hbase(main)> whoami
    2. 表的管理
      1)查看有哪些表
      hbase(main)> list

      2)创建表

      # 语法:create <table>, {NAME => <family>, VERSIONS => <VERSIONS>}
      # 例如:创建表t1,有两个family name:f1,f2,且版本数均为2
      hbase(main)> create 't1',{NAME => 'f1', VERSIONS => 2},{NAME => 'f2', VERSIONS => 2}

      3)删除表
      分两步:首先disable,然后drop
      例如:删除表t1

      hbase(main)> disable 't1'
      hbase(main)> drop 't1'

      4)查看表的结构

      # 语法:describe <table>
      # 例如:查看表t1的结构
      hbase(main)> describe 't1'

      5)修改表结构
      修改表结构必须先disable

      # 语法:alter 't1', {NAME => 'f1'}, {NAME => 'f2', METHOD => 'delete'}
      # 例如:修改表test1的cf的TTL为180天
      hbase(main)> disable 'test1'
      hbase(main)> alter 'test1',{NAME=>'body',TTL=>'15552000'},{NAME=>'meta', TTL=>'15552000'}
      hbase(main)> enable 'test1'
    3. 权限管理
      1)分配权限
      # 语法 : grant <user> <permissions> <table> <column family> <column qualifier> 参数后面用逗号分隔
      # 权限用五个字母表示: "RWXCA".
      # READ('R'), WRITE('W'), EXEC('X'), CREATE('C'), ADMIN('A')
      # 例如,给用户‘test'分配对表t1有读写的权限,
      hbase(main)> grant 'test','RW','t1'

      2)查看权限

      # 语法:user_permission <table>
      # 例如,查看表t1的权限列表
      hbase(main)> user_permission 't1'

      3)收回权限

      # 与分配权限类似,语法:revoke <user> <table> <column family> <column qualifier>
      # 例如,收回test用户在表t1上的权限
      hbase(main)> revoke 'test','t1'
    4. 表数据的增删改查
      1)添加数据
      # 语法:put <table>,<rowkey>,<family:column>,<value>,<timestamp>
      # 例如:给表t1的添加一行记录:rowkey是rowkey001,family name:f1,column name:col1,value:value01,timestamp:系统默认
      hbase(main)> put 't1','rowkey001','f1:col1','value01'
      用法比较单一。

      2)查询数据
      a)查询某行记录

      # 语法:get <table>,<rowkey>,[<family:column>,....]
      # 例如:查询表t1,rowkey001中的f1下的col1的值
      hbase(main)> get 't1','rowkey001', 'f1:col1'
      # 或者:
      hbase(main)> get 't1','rowkey001', {COLUMN=>'f1:col1'}
      # 查询表t1,rowke002中的f1下的所有列值
      hbase(main)> get 't1','rowkey001'

      b)扫描表

      # 语法:scan <table>, {COLUMNS => [ <family:column>,.... ], LIMIT => num}
      # 另外,还可以添加STARTROW、TIMERANGE和FITLER等高级功能
      # 例如:扫描表t1的前5条数据
      hbase(main)> scan 't1',{LIMIT=>5}

      c)查询表中的数据行数

      # 语法:count <table>, {INTERVAL => intervalNum, CACHE => cacheNum}
      # INTERVAL设置多少行显示一次及对应的rowkey,默认1000;CACHE每次去取的缓存区大小,默认是10,调整该参数可提高查询速度
      # 例如,查询表t1中的行数,每100条显示一次,缓存区为500
      hbase(main)> count 't1', {INTERVAL => 100, CACHE => 500}

      3)删除数据
      a )删除行中的某个列值

      # 语法:delete <table>, <rowkey>,  <family:column> , <timestamp>,必须指定列名
      # 例如:删除表t1,rowkey001中的f1:col1的数据
      hbase(main)> delete 't1','rowkey001','f1:col1'

      注:将删除改行f1:col1列所有版本的数据
      b )删除行

      # 语法:deleteall <table>, <rowkey>,  <family:column> , <timestamp>,可以不指定列名,删除整行数据
      # 例如:删除表t1,rowk001的数据
      hbase(main)> deleteall 't1','rowkey001'

      c)删除表中的所有数据

      # 语法: truncate <table>
      # 其具体过程是:disable table -> drop table -> create table
      # 例如:删除表t1的所有数据
      hbase(main)> truncate 't1'
    5. Region管理
      1)移动region
      # 语法:move 'encodeRegionName', 'ServerName'
      # encodeRegionName指的regioName后面的编码,ServerName指的是master-status的Region Servers列表
      # 示例
      hbase(main)>move '4343995a58be8e5bbc739af1e91cd72d', 'db-41.xxx.xxx.org,60020,1390274516739'

      2)开启/关闭region

      # 语法:balance_switch true|false
      hbase(main)> balance_switch

      3)手动split

      # 语法:split 'regionName', 'splitKey'

      4)手动触发major compaction

      #语法:
      #Compact all regions in a table:
      #hbase> major_compact 't1'
      #Compact an entire region:
      #hbase> major_compact 'r1'
      #Compact a single column family within a region:
      #hbase> major_compact 'r1', 'c1'
      #Compact a single column family within a table:
      #hbase> major_compact 't1', 'c1'
    6. 配置管理及节点重启
      1)修改hdfs配置
      hdfs配置位置:/etc/hadoop/conf
      # 同步hdfs配置
      cat /home/hadoop/slaves|xargs -i -t scp /etc/hadoop/conf/hdfs-site.xml hadoop@{}:/etc/hadoop/conf/hdfs-site.xml
      #关闭:
      cat /home/hadoop/slaves|xargs -i -t ssh hadoop@{} "sudo /home/hadoop/cdh4/hadoop-2.0.0-cdh4.2.1/sbin/hadoop-daemon.sh --config /etc/hadoop/conf stop datanode"
      #启动:
      cat /home/hadoop/slaves|xargs -i -t ssh hadoop@{} "sudo /home/hadoop/cdh4/hadoop-2.0.0-cdh4.2.1/sbin/hadoop-daemon.sh --config /etc/hadoop/conf start datanode"

      2)修改hbase配置
      hbase配置位置:

      # 同步hbase配置
      cat /home/hadoop/hbase/conf/regionservers|xargs -i -t scp /home/hadoop/hbase/conf/hbase-site.xml hadoop@{}:/home/hadoop/hbase/conf/hbase-site.xml
       
      # graceful重启
      cd ~/hbase
      bin/graceful_stop.sh --restart --reload --debug inspurXXX.xxx.xxx.org

HBase介绍(4)---常用shell命令的更多相关文章

  1. 原 HBase 常用Shell命令

    HBase 常用Shell命令 1.进入hbase shell console $HBASE_HOME/bin/hbase shell 如果有kerberos认证,需要事先使用相应的keytab进行一 ...

  2. HBase 安装与配置及常用Shell命令

    HBase 安装与配置 首要配置 配置时间同步(所有节点上执行) yum -y install chrony vi /etc/chrony.conf #写入(7版本用server:8版本用pool): ...

  3. Windows常用shell命令大全

    Windows常用shell命令大全 基于鼠标操作的后果就是OS界面外观发生改变, 就得多花学习成本.更主要的是基于界面引导Path与命令行直达速度是难以比拟的.另外Geek很大一部分是键盘控,而非鼠 ...

  4. Windows常用shell命令大全(转)

    [Windows常用shell命令大全] 基于鼠标操作的后果就是OS界面外观发生改变, 就得多花学习成本.更主要的是基于界面引导Path与命令行直达速度是难以比拟的.另外Geek很大一部分是键盘控,而 ...

  5. Linux Shell常用shell命令

    Linux Shell常用shell命令 一.文件.目录操作命令 1.ls命令 功能:显示文件和目录的信息 ls 以默认方式显示当前目录文件列表 ls -a 显示所有文件包括隐藏文件 ls -l 显示 ...

  6. Ubuntu常用shell命令

    目录 ls cd mkdir mv cp scp rm df du chmod chown chgrp head tail screen apt-get Ubuntu常用shell命令 Ubuntu作 ...

  7. (转)HBase 常用Shell命令

    转自:http://my.oschina.net/u/189445/blog/595232 hbase shell命令                             描述  alter 修改 ...

  8. Mac下的常用Shell命令

    今天介绍一下在Mac的终端中一些常用的Shell命令: 1.查看当前工作目录的完整路径 pwd (pwd的原意是:print work directiory,而不是密码password的意思,呵呵) ...

  9. 快速掌握mongoDB(一)——mongoDB安装部署和常用shell命令

    1.mongoDB简介 mongoDB 是由C++语言编写的,是一种分布式的面向文档存储的开源nosql数据库.nosql是Not Only SQL的缩写,是对不同于传统的关系型数据库的数据库管理系统 ...

随机推荐

  1. Redis实战——redis主从备份和哨兵模式实践

    借鉴:http://redis.majunwei.com/topics/sentinel.html     https://blog.csdn.net/u011784767/article/detai ...

  2. hadoop学习记录1 初始hadoop

    起因 因为工作需要用到,所以需要学习hadoop,所以记录这篇文章,主要分享自己快速搭建hadoop环境与运行一个demo 搭建环境 网上搭建hadoop环境的例子我看蛮多的.但是我看都比较复杂,要求 ...

  3. Python与Go选择排序

    #!/usr/bin/env python # -*- coding: utf-8 -*- # 选择排序 # 时间复杂度O(n^2) def selection_sort(array): length ...

  4. 二维码生成插件qrious及网站扫码登录的一些理解

    什么是二维码 ​ 二维码又称QR Code,QR全称Quick Response,是一个近几年来移动设备上超流行的一种编码方式,它比传统的Bar Code条形码能存更多的信息,也能表示更多的数据类型. ...

  5. Kafka存储机制(转)

    转自:https://www.cnblogs.com/jun1019/p/6256514.html Kafka存储机制 同一个topic下有多个不同的partition,每个partition为一个目 ...

  6. Ant学习--简单实例入门

    步骤1.创建工程文件夹名字 F:\Helloworld 步骤2.编写java代码: package com.netease; public class Ant_test { public static ...

  7. 【SPOJ -NSUBSTR】Substrings 【后缀自动机+dp】

    题意 给出一个字符串,要你找出所有长度的子串分别的最多出现次数. 分析 我们建出后缀自动机,然后预处理出每个状态的cnt,cnt[u]指的是u这个状态的right集合大小.我们设f[len]为长度为l ...

  8. 利用Fiddler对Android模拟器网络请求进行抓包

    安装使用Fiddler 下载安装Fiddler的方法这里就略过了,一路Next就行了.装好之后运行软件,正常情况这个时候我们已经可以对电脑的网络请求进行抓包了.Fiddler默认的代理地址是127.0 ...

  9. yum基本用法与修改源

    一.yum简介 yum,是Yellow dog Updater Modified的简称,起初是由yellow dog这一发行版的开发者Terra Soft研发,用python写成,那时还叫做yup(y ...

  10. fastdfs 上传和下载 有用

    一.FastDFS解决什么样的问题 1.存储空间可扩展. 2.提供一个统一的访问方式. 使用FastDFS,分布式文件系统.存储空间可以横向扩展,可以实现服务器的高可用.支持每个节点有备份机. 二.什 ...