hbase 对于表的相关操作:

实现功能有:指定region创建,普通创建,删除,修改列族信息

package learm.forclass.testclass;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.hbase.HBaseConfiguration;
import org.apache.hadoop.hbase.HColumnDescriptor;
import org.apache.hadoop.hbase.HTableDescriptor;
import org.apache.hadoop.hbase.TableName;
import org.apache.hadoop.hbase.client.Admin;
import org.apache.hadoop.hbase.client.Connection;
import org.apache.hadoop.hbase.client.ConnectionFactory;
import org.apache.hadoop.hbase.util.Bytes; import java.io.IOException; /**
* Created by zhoujun on 2017/9/21.
* 实验 二
*/
public class MainHT { /**
* 连接配置信息
*/
private static Configuration conf = null; /**
* 情态代码块,初始化配置信息,static 中的代码会在 main 方法调用之前执行
*/
static {
conf = HBaseConfiguration.create();// 初始化配置信息
// conf.set("hbase.zookeeper.quorum","192.168.23.128"); //设置zookeeper集群
// conf.set("hbase.zookeeper.property.clientPort", "2181"); //设置zookeeper的端口
// conf.set("hbase.rootdir", "hdfs://192.168.23.128"
// + ":9000/hbase"); // 设置 hbase 的 master 集群地址
} public static void main(String[] args) throws InterruptedException {
log("************** 主方法调试 ******************");
// 列出数据库中所有的表
listTables();
// 创建一个表,包含五个分区,两个列族
createTableThroughRegion(TableName.valueOf("testRegion"), new String[]{"cf1","cf2"},
new String[]{"10|", "20|", "30|", "40|", "50|"});
// 删除表中的一个列族
deleteAFamily(TableName.valueOf("testRegion"), "cf1");
// 列出数据库中所有的表
log("删除一个列族后的表结构:");
listTables(); // 创建表
log("创建几个测试使用的表");
creatTable("t1", new String[]{"tc1"});
creatTable("t2", new String[]{"tc1", "tc2"});
creatTable("test3", new String[]{"tc1"});
creatTable("test4", new String[]{"tc1", "tc2"}); // 列出数据库中所有的表
log("创建之后的数据库中的表为:");
listTables(); log("******************************************");
log("************** 删除一张表 t2 ************");
// 列出数据库中所有的表
log("删除之前数据库中的表有:");
listTables();
// 删除 t2 这张表
deleteTable("t1"); log("删除之后数据库中的表有:");
listTables(); // 列出数据库中所有的表
Thread.sleep(1000);
log("******************************************");
log("************** 删除所有表 ****************");
// 列出数据库中所有的表
log("全部删除之前数据库中的表有:");
listTables();
// 全部删除
deleteAllTable();
log("全部删除之后数据库中的表有:");
listTables();
Thread.sleep(1000);
log("******************************************");
} /**
* 根据指定的表名和列族列表,创建一张表
* @param tableName 创建的表名
* @param family 创建的列族数组
*/
public static void creatTable(String tableName, String[] family){
Admin admin = null;
try {
/** 获取连接接口*/
Connection connection = ConnectionFactory.createConnection(conf);
/** 获取 Admin*/
admin = connection.getAdmin();
/** 创建 hbase table 详细描述类,添加表的列族,版本等信息*/
HTableDescriptor ts = new HTableDescriptor(TableName.valueOf(tableName));
for(String f : family) ts.addFamily(new HColumnDescriptor(f)); /** 创建表 */
admin.createTable(ts); if(admin.tableExists(TableName.valueOf(tableName))){
log("创建表:" + tableName + " 成功 !");
log("列族伪: " );
for(String f : family) log("---" + f);
}
}catch(IOException ioe){
log("******************创建表失败");
ioe.printStackTrace();
}finally {
try{
assert admin != null;
admin.close();
}catch (Exception e){
e.printStackTrace();
}
}
} /**
* 指定表名,删除一张表
* @param tableName 删除表的表名
*/
public static void deleteTable(String tableName){
Admin admin2 = null;
try {
Connection connection = ConnectionFactory.createConnection(conf);
admin2 = connection.getAdmin();
if(admin2.tableExists(TableName.valueOf(tableName))){
admin2.disableTable(TableName.valueOf(tableName));
if(!admin2.isTableEnabled(TableName.valueOf(tableName))){
admin2.deleteTable(TableName.valueOf(tableName));
log("删除表 " + tableName + " 成功!");
}else{
log("表不存在 !");
}
}
}catch(IOException ioe){
ioe.printStackTrace();
}finally {
try{
assert admin2 != null;
admin2.close();
}catch (Exception e){
e.printStackTrace();
}
}
} /**
* 删除数据库中的所有表
*/
public static void deleteAllTable(){
Admin admin3 = null;
try {
Connection connection = ConnectionFactory.createConnection(conf);
admin3 = connection.getAdmin(); TableName[] tableNamess = admin3.listTableNames();
log("开始删除:");
for(TableName tableName: tableNamess){
if(admin3.tableExists(tableName)){
admin3.disableTable(tableName);
if(!admin3.isTableEnabled(tableName)){
admin3.deleteTable(tableName);
log("删除表 " + tableName + " 成功!");
}else{
log("*********** 表不可使用 !");
}
}else log("表不存在 !");
}
}catch(IOException ioe){
ioe.printStackTrace();
}finally {
try{
assert admin3 != null;
admin3.close();
}catch (Exception e){
e.printStackTrace();
}
}
} /**
* 列出所有的表名,列族
*/
public static void listTables(){
Admin admin3 = null;
try {
Connection connection = ConnectionFactory.createConnection(conf);
admin3 = connection.getAdmin();
TableName[] tableNamess = admin3.listTableNames();
log("现在数据库有的表:");
log("************************");
for(TableName tableName: tableNamess){
HTableDescriptor hTableDescriptor = admin3.getTableDescriptor(tableName);
log("*********");
log("***表名: " + tableName);
log("***列族:");
for(HColumnDescriptor hcp : hTableDescriptor.getFamilies()){
log(" " + hcp.getNameAsString());
}
log("*********");
}
log("************************");
}catch (Exception e){
e.printStackTrace();
}finally{
try {
assert admin3 != null;
admin3.close();
} catch (IOException e) {
e.printStackTrace();
}
}
} /**
* 创建有 region 分区的表
* @param tableName 表名
* @param family 列族数组
* @param regions 分区的数组,exp: new String[]{"10|", "20|", "30|", "40|", "50|"}
*/
public static void createTableThroughRegion(TableName tableName, String[] family, String[] regions){
Admin admin = null;
try {
Connection connection = ConnectionFactory.createConnection(conf);
admin = connection.getAdmin();
HTableDescriptor hTableDescriptor = new HTableDescriptor(tableName);
for(String f: family){
hTableDescriptor.addFamily(new HColumnDescriptor(f));
} byte[][] splitKeys = new byte[regions.length][];
/**
* 根据传入的 region 数组直接创建
*/ for (int i = 0; i < regions.length; i++) {
splitKeys[i] = Bytes.toBytes(regions[i]);
} // /**
// * 给指定的 region 分区,根据其 hashCode 升序排序
// */
// TreeSet<byte[]> rows = new TreeSet<byte[]>(Bytes.BYTES_COMPARATOR);
// for (int i = 0; i < regions.length; i++) rows.add(Bytes.toBytes(regions[i]));
// Iterator<byte[]> rowKeyIter = rows.iterator();
// int i = 0;
// while (rowKeyIter.hasNext()) {
// byte[] tempRow = rowKeyIter.next();
// rowKeyIter.remove();
// splitKeys[i] = tempRow;
// i++;
// }
//创建
admin.createTable(hTableDescriptor, splitKeys);
}catch (Exception e){
e.printStackTrace();
}finally {
try{
assert admin != null;
admin.close();
}catch (Exception e){
e.printStackTrace();
}
}
} /**
* 删除指定表的一个列族
* @param tableName 表名
* @param deleteFamily 要删除列族的列族名
*/
public static void deleteAFamily(TableName tableName, String deleteFamily){
Admin admin = null;
try {
Connection connection = ConnectionFactory.createConnection(conf);
admin = connection.getAdmin();
if(!admin.tableExists(tableName)) throw new Exception("所要删除的表不存在");
if(admin.isTableEnabled(tableName)){
admin.disableTable(tableName);
log("disable table");
admin.deleteColumn(tableName, Bytes.toBytes(deleteFamily));
admin.enableTable(tableName);
log("enable table");
}else {
log("delete deleteFamily !");
admin.deleteColumn(tableName, Bytes.toBytes(deleteFamily));
admin.enableTable(tableName);
log("enable table !");
}
}catch (Exception e){
e.printStackTrace();
}finally{
try {
assert admin != null;
admin.close();
} catch (IOException e) {
e.printStackTrace();
}
}
} /**
* 内部工具类,打印日志信息
* @param msg 日志信息
*/
private static void log(Object msg){
System.out.println("info: " + msg);
}
}

hbase笔记---新版api之对表的操作,指定region创建,普通创建,删除,修改列族信息的更多相关文章

  1. HBase学习笔记——Java API操作

    1.1.  配置 HBaseConfiguration 包:org.apache.hadoop.hbase.HBaseConfiguration 作用:通过此类可以对HBase进行配置 用法实例: C ...

  2. HBase笔记:对HBase原理的简单理解

    早些时候学习hadoop的技术,我一直对里面两项技术倍感困惑,一个是zookeeper,一个就是Hbase了.现在有机会专职做大数据相关的项目,终于看到了HBase实战的项目,也因此有机会搞懂Hbas ...

  3. HBase 笔记3

    数据模型 Namespace 表命名空间: 多个表分到一个组进行统一的管理,需要用到表命名空间 表命名空间主要是对表分组,对不同组进行不同环境设定,如配额管理  安全管理 保留表空间: HBase中有 ...

  4. 5 hbase-shell + hbase的java api

    本博文的主要内容有 .HBase的单机模式(1节点)安装 .HBase的单机模式(1节点)的启动 .HBase的伪分布模式(1节点)安装  .HBase的伪分布模式(1节点)的启动    .HBase ...

  5. Hbase笔记3 shell命令

    http://www.jb51.net/article/31172.htm 这个文章写得挺好 1.HBase的shell就和我们用Mysql的终端是一个意思,比如我们安装好Mysql,配置好了环境变量 ...

  6. hbase-shell + hbase的java api

    本博文的主要内容有 .HBase的单机模式(1节点)安装 .HBase的单机模式(1节点)的启动 .HBase的伪分布模式(1节点)安装   .HBase的伪分布模式(1节点)的启动    .HBas ...

  7. HBase的java客户端测试(一)---DDL操作

    测试准备 [首先同步时间:] for node in CloudDeskTop master01 master02 slave01 slave02 slave03;do ssh $node " ...

  8. HBase 笔记2

    Hadoop 服务启动顺序: zookeeper ->journalnode->namenode -> zkfc -> datanode HBase Master WEB控制台 ...

  9. HBase学习记录-API

    delete.addColumns()和delete.addColumn()的区别 /** * delete.addColumns(); * delete.addColumn(); * 区别: * a ...

随机推荐

  1. Mysql大概1700W大表删除1000W左右数据,发现数据大小和索引大小并没有减少思考

    MySQL删除操作其实是假删除 因为近期在重构优化一个业务的时候 发现有一张表(send_log)数据量将近1700W 左右  占用数据大小17G,索引18G左右  而我们的核心应用在使用的时候 会去 ...

  2. Mybatis利用Intercepter实现物理分页

    一.Interceptor介绍 Mybatis 允许用户使用自定义拦截器对SQL语句执行过程中的某一点进行拦截.默认情况,可以拦截的方法如下: Executor 中的 update().query() ...

  3. ElasticSearch教程——分片、扩容以及容错机制(转学习使用)

    一.Primary shard和replica shard机制 1.index包含多个shard; 2.每个shard都是一个最小的工作单元,承载部分的数据,Lucene实例,完整的简历索引和处理请求 ...

  4. Elasticsearch节点下线(退役)and unassigned shards

    一.节点退役当集群中个别节点出现故障预警等情况,需要进行退役工作,即让所有位于该退役节点上的分片的数据分配到其他节点上后,再将此节点关闭并从集群中移除. 1.ES提供了让某个节点上所有数据都移走的功能 ...

  5. Head First 设计模式 —— 00. 引子

    Head First 学习原则 P xxx 可视化:图片使得学习效率更高,更易懂 交谈式:第一人称交谈方式讲述学习内容更易引起注意 多思考:自主思考练习题和拓展知识的问题 保持注意力集中:将知识融合进 ...

  6. ATM_tests

    ATM取款机练习程序 一.程序分析 自顶向下.逐步细化 按照程序执行的流程,将程序分解为若干个功能相对独立的函数(方法),每个函数(方法)负责某一功能,然后根据程序执行的流程,将函数(方法)组装(调用 ...

  7. MongoDB备份(mongoexport)与恢复(mongoimport)

    1.备份恢复工具介绍: mongoexport/mongoimport mongodump/mongorestore(本文未涉及) 2.备份工具区别在哪里? 2.1 mongoexport/mongo ...

  8. 你一定需要知道的高阶JAVA枚举特性!

    JAVA枚举,比你想象中还要有用! 我经常发现自己在Java中使用枚举来表示某个对象的一组潜在值. 在编译时确定类型可以具有什么值的能力是一种强大的能力,它为代码提供了结构和意义. 当我第一次了解枚举 ...

  9. 【Flutter】功能型组件之跨组件状态共享

    前言   在Flutter开发中,状态管理是一个永恒的话题.   一般的原则是:如果状态是组件私有的,则应该由组件自己管理:如果状态要跨组件共享,则该状态应该由各个组件共同的父元素来管理.   对于组 ...

  10. 牺牲速度来节省内存,Redis是觉得自己太快了吗

    前言 正常情况下我们选择使用 Redis 就是为了提升查询速度,然而让人意外的是,Redis 当中却有一种比较有意思的数据结构,这种数据结构通过牺牲部分读写速度来达到节省内存的目的,这就是 zipli ...