package com.quyf;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.hbase.*;
import org.apache.hadoop.hbase.client.*;
import org.apache.hadoop.hbase.util.Bytes;
import org.junit.After;
import org.junit.Before;
import org.junit.Test; import java.io.IOException;
import java.util.ArrayList;
import java.util.Iterator;
import java.util.List; /**
* Created by Administrator on 2018/4/8.
*/ public class HbaseDemo { private static Connection conn;
private static Configuration configuration;
private static Admin admin;
public static void main(String[] args) throws Exception{
//System.out.println("hello world"); } @Before
public void setup() throws Exception{
configuration = new Configuration();
configuration.set("hbase.zookeeper.quorum", "bg1:2181,bg2:2181,bg3:2181");
// configuration.addResource(new Path("I:\\gitproject\\hbase_demo\\src\\main\\resources\\hbase-site.xml"));
conn = ConnectionFactory.createConnection(configuration);
admin = conn.getAdmin();
}
/**
* 结束之后 关闭对象
*/
@After
public void End_up() throws Exception {
if (conn != null) conn.close();
}
@Test
public void create() throws IOException {
String[] cols = {"phone","addr","age"};
createTable("helloworld", cols);
} /**
* @param tableName
* @param columns
* @throws IOException
*/
private void createTable(String tableName, String[] columns) throws IOException { TableName tb = TableName.valueOf( tableName );
if( admin.tableExists( tb )){
System.out.println("已经存在");
}else{
System.out.println("not存在"); HTableDescriptor desc = new HTableDescriptor( tb );
for (String column:columns) {
desc.addFamily( new HColumnDescriptor(column));
}
admin.createTable(desc);
System.out.println("create "+tableName+" success");
}
} @Test
public void showTable() throws IOException { TableName[] tables = admin.listTableNames();
for(TableName tab:tables){
System.out.println("表名:"+tab.getNameAsString());
HTableDescriptor desc = admin.getTableDescriptor( tab );
for(HColumnDescriptor column: desc.getColumnFamilies()){
System.out.println(column.getNameAsString()+"==="+column.toString());
}
}
} @Test
public void getByRowKey() throws IOException {
//admin.getTableDescriptor(TableName.valueOf("test"));
Table table = conn.getTable(TableName.valueOf("test"));
Get get = new Get("0004".getBytes());
Result rt = table.get(get);
System.out.println( rt.toString());
for(Cell cell:rt.rawCells()){
System.out.println(
Bytes.toString(CellUtil.cloneRow(cell))+"\t"+
Bytes.toString( CellUtil.cloneFamily(cell))+"\t"+
Bytes.toString(CellUtil.cloneQualifier(cell))+"\t"+
Bytes.toString( CellUtil.cloneValue(cell))
);
}
} @Test
public void put() throws IOException {
Table tab = conn.getTable(TableName.valueOf("test"));
Put put1 = new Put("0004".getBytes());
put1.addColumn("info".getBytes(),"age".getBytes(),Bytes.toBytes("4"));
//put1.addColumn("info".getBytes(),"username".getBytes(),Bytes.toBytes("hellooww")); Put put2 = new Put("0005".getBytes());
put2.addColumn("info".getBytes(),"age".getBytes(),Bytes.toBytes("45"));
// put2.addColumn("info".getBytes(),"username".getBytes(),Bytes.toBytes("alibaba")); List<Put> list = new ArrayList<Put>();
list.add(put1);
list.add(put2);
tab.put(list);
} @Test
public void deletByRowKey() throws IOException {
Table table = conn.getTable(TableName.valueOf("test"));
Delete delete = new Delete(Bytes.toBytes("0004"));
//如果age列有多个版本的话,这里只删除了最新的一个版本,其他版本的数据还在的,
// addColumn是删除某一个列簇里的最新时间戳版本。
// delete.addColumns是删除某个列簇里的所有时间戳版本。
//delete.addColumn("info".getBytes(),"age".getBytes()); //测试下删除不存在的列
// delete.addColumn("info".getBytes(),"hh".getBytes());
//测试下删除不存在的列簇 会报错 column family info22 does not exist in region test
delete.addColumn("info22".getBytes(),"hh".getBytes());
table.delete(delete);
table.close();
} @Test
public void scanTable() throws IOException {
Table table = conn.getTable(TableName.valueOf("test"));
Scan scan = new Scan();
//scan可以加很多条件和范围
scan.withStartRow("0002".getBytes());
//scan.withStopRow("0004".getBytes());//不包含末尾行
scan.withStopRow("0004".getBytes(),true);//包含末尾行
ResultScanner rtScan = table.getScanner( scan );
// Iterator itor = rtScan.iterator();
// while(itor.hasNext()){
// System.out.println( itor.next().toString());
// }
for (org.apache.hadoop.hbase.client.Result next = rtScan.next();next !=null;next = rtScan.next() ){
System.out.println(next.toString());
}
}
}

  

JAVA API操作hbase1.4.2的更多相关文章

  1. hive-通过Java API操作

    通过Java API操作hive,算是测试hive第三种对外接口 测试hive 服务启动 package org.admln.hive; import java.sql.SQLException; i ...

  2. hadoop2-HBase的Java API操作

    Hbase提供了丰富的Java API,以及线程池操作,下面我用线程池来展示一下使用Java API操作Hbase. 项目结构如下: 我使用的Hbase的版本是 hbase-0.98.9-hadoop ...

  3. 使用Java API操作HDFS文件系统

    使用Junit封装HFDS import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.*; import org ...

  4. Kafka系列三 java API操作

    使用java API操作kafka 1.pom.xml <project xmlns="http://maven.apache.org/POM/4.0.0" xmlns:xs ...

  5. Hadoop之HDFS(三)HDFS的JAVA API操作

    HDFS的JAVA API操作 HDFS 在生产应用中主要是客户端的开发,其核心步骤是从 HDFS 提供的 api中构造一个 HDFS 的访问客户端对象,然后通过该客户端对象操作(增删改查)HDFS ...

  6. MongoDB Java API操作很全的整理

    MongoDB 是一个基于分布式文件存储的数据库.由 C++ 语言编写,一般生产上建议以共享分片的形式来部署. 但是MongoDB官方也提供了其它语言的客户端操作API.如下图所示: 提供了C.C++ ...

  7. zookeeper的java api操作

    zookeeper的java api操作 创建会话: Zookeeper(String connectString,int sessionTimeout,Watcher watcher) Zookee ...

  8. java api操作

    java api操作 导入开发包 将hbase安装包中lib下包导入java项目   创建表   Configuration conf = HBaseConfiguration.create(); c ...

  9. HDFS 05 - HDFS 常用的 Java API 操作

    目录 0 - 配置 Hadoop 环境(Windows系统) 1 - 导入 Maven 依赖 2 - 常用类介绍 3 - 常见 API 操作 3.1 获取文件系统(重要) 3.2 创建目录.写入文件 ...

随机推荐

  1. android 实现淘宝收益图的折线

    实现的效果我一会贴上,我先说下原理,我们知道要实现在canvas上画线,不就是要搞一个paint嘛,然后首先肯定要设置下paint的属性,那么画文字呢,不就是Textpaint吗, 对,就是这么简单, ...

  2. Android 图片加载库Glide 实战(二),占位符,缓存,转换自签名高级实战

    http://blog.csdn.net/sk719887916/article/details/40073747 请尊重原创 : skay <Android 图片加载库Glide 实战(一), ...

  3. java的io库用到的装饰模式是如何体现的?

    概论 java的io包下大概有85个类,真复杂.其实不然这些类又可以分为以下四个部分. 输入流                输出流 字节流         InputStream          ...

  4. ELF 动态链接 - so 的 重定位表

    动态链接下,无论时可执行文件还是共享对象,一旦对其他共享对象有依赖,也就是所有导入的符号时,那么代码或数据中就会有对于导入符号的引用.而在编译时期这些导入符号的确切地址时未知的.只有在运行期才能确定真 ...

  5. HDFS的java api操作

    hdfs在生产应用中主要是针对客户端的开发,从hdfs提供的api中构造一个HDFS的访问客户端对象,然后通过该客户端对象操作(增删改查)HDFS上的文件. 搭建开发环境 方式一(windows环境下 ...

  6. $("li")是对象类型不是数组类型

  7. private static final 修饰符

    java修饰符分类修饰符字段修饰符方法修饰符根据功能同主要分下几种 1.权限访问修饰符 public,protected,default,private,四种级别修饰符都用来修饰类.方法和字段 包外 ...

  8. 数据库scheme设计(9.4 小结)

    通过这一章的内容,希望能够让大家明白一个道理,“数据库系统的性能不是优化出来的,更多的是设计出来的”.数据库Schema 的设计并不如很多人想象的那样只是一个简单的对象对应实现,而是一个系统工程.要想 ...

  9. Nginx Rewrite详解

    Nginx Rewrite详解 引用链接:http://blog.cafeneko.info/2010/10/nginx_rewrite_note/ 原文如下: 在新主机的迁移过程中,最大的困难就是W ...

  10. linux 下查看wwn号

    PC server主机与FC存储进行连接时,一般需要加装HBA卡,两者之间衔接的一个重要参数就是wwn号.redhat或suse下查看wwn号的方法如下.一.SuSE Linux 9查看 /proc/ ...