建表、添加数据

  1. Examples:
  2. hbase> create 'ns1:t1', 'f1', SPLITS => ['10', '20', '30', '40']
  3. hbase> create 't1', 'f1', SPLITS => ['10', '20', '30', '40']
  4. hbase> create 't1', 'f1', SPLITS_FILE => 'splits.txt', OWNER => 'johndoe'
  5. hbase> create 't1', {NAME => 'f1', VERSIONS => 5}, METADATA => { 'mykey' => 'myvalue' }
  6. hbase> # Optionally pre-split the table into NUMREGIONS, using
  7. hbase> # SPLITALGO ("HexStringSplit", "UniformSplit" or classname)
  8. hbase> create 't1', 'f1', {NUMREGIONS => 15, SPLITALGO => 'HexStringSplit'}
  9. hbase> create 't1', 'f1', {NUMREGIONS => 15, SPLITALGO => 'HexStringSplit', REGION_REPLICATION => 2, CONFIGURATION => {'hbase.hregion.scan.loadColumnFamiliesOnDemand' => 'true'}}
  10. hbase> create 't1', {NAME => 'f1', DFS_REPLICATION => 1}
  11. You can also keep around a reference to the created table:
  12. hbase> t1 = create 't1', 'f1'
  13. Which gives you a reference to the table named 't1', on which you can then
  14. call methods.
  15. hbase(main):003:0> create 'lzl', 'info', SPLITS => ['10', '20', '30', '40']
  16. 0 row(s) in 2.4090 seconds
  17. => Hbase::Table - lzl
  18. hbase(main):004:0> put 'lzl','01','info:name','lzl'
  19. 0 row(s) in 0.3180 seconds
  20. hbase(main):005:0> put 'lzl','11','info:name','lzl2'
  21. 0 row(s) in 0.0250 seconds
  22. hbase(main):006:0> put 'lzl','31','info:name','lzl3'
  23. 0 row(s) in 0.0530 seconds

查看版本VERSION => 1

  1. hbase(main):007:0> describe 'lzl'
  2. Table lzl is ENABLED
  3. lzl
  4. COLUMN FAMILIES DESCRIPTION
  5. {NAME => 'info', BLOOMFILTER => 'ROW', VERSIONS => '1', IN_MEMORY => 'false', KEEP_DELETED_CELLS => 'FALSE', DATA_BLOCK_ENCODING => 'NONE', TTL => 'FOREVER', COMPRESSION => 'NONE', MIN_VERSIONS => '0',
  6. BLOCKCACHE => 'true', BLOCKSIZE => '65536', REPLICATION_SCOPE => '0'}
  7. 1 row(s) in 0.0690 seconds
  8. hbase(main):008:0>

新增VERSION => 3

  1. hbase(main):008:0> alter 'lzl' ,{NAME=>'info', VERSIONS=>3}
  2. Updating all regions with the new schema...
  3. 0/5 regions updated.
  4. 5/5 regions updated.
  5. Done.
  6. 0 row(s) in 3.3500 seconds
  7. hbase(main):009:0>

修改数据

  1. hbase(main):009:0> put 'lzl','01','info:name','hhh'
  2. 0 row(s) in 0.0300 seconds
  3. hbase(main):010:0> scan 'lzl'
  4. ROW COLUMN+CELL
  5. 01 column=info:name, timestamp=1570830343144, value=hhh
  6. 11 column=info:name, timestamp=1570829294234, value=lzl2
  7. 31 column=info:name, timestamp=1570829314499, value=lzl3
  8. 3 row(s) in 0.1660 seconds
  9. hbase(main):011:0>

查看VERSION => 3数据

  1. hbase(main):019:0> scan 'lzl',{VERSIONS => 1}
  2. ROW COLUMN+CELL
  3. 01 column=info:name, timestamp=1570830343144, value=hhh
  4. 11 column=info:name, timestamp=1570829294234, value=lzl2
  5. 31 column=info:name, timestamp=1570829314499, value=lzl3
  6. 3 row(s) in 0.0660 seconds
  7. hbase(main):020:0> put 'lzl','01','info:name','zzz'
  8. 0 row(s) in 0.0180 seconds
  9. hbase(main):021:0> scan 'lzl',{VERSIONS => 3}
  10. ROW COLUMN+CELL
  11. 01 column=info:name, timestamp=1570830773469, value=zzz
  12. 01 column=info:name, timestamp=1570830343144, value=hhh
  13. 01 column=info:name, timestamp=1570829280377, value=lzl
  14. 11 column=info:name, timestamp=1570829294234, value=lzl2
  15. 31 column=info:name, timestamp=1570829314499, value=lzl3
  16. 3 row(s) in 0.0620 seconds
  17. hbase(main):022:0>

HBase会存储最近的3个VERSION

hbase> create ‘ns1:t1’, ‘f1’, SPLITS => [‘10’, ‘20’, ‘30’, ‘40’]

按rowkey切分建表, [‘10’, ‘20’, ‘30’, ‘40’]会有5个region

region均匀分配在regionserver中

【HBase】表的version的更多相关文章

  1. 数据分页处理系列之二:HBase表数据分页处理

      HBase是Hadoop大数据生态技术圈中的一项关键技术,是一种用于分布式存储大数据的列式数据库,关于HBase更加详细的介绍和技术细节,朋友们可以在网络上进行搜寻,笔者本人在接下来的日子里也会写 ...

  2. 浅谈hbase表中数据导出导入(也就是备份)

    转自:http://blog.chinaunix.net/xmlrpc.php?r=blog/article&uid=23916356&id=3321832 最近因为生产环境hbase ...

  3. hbase操作(shell 命令,如建表,清空表,增删改查)以及 hbase表存储结构和原理

    两篇讲的不错文章 http://www.cnblogs.com/nexiyi/p/hbase_shell.html http://blog.csdn.net/u010967382/article/de ...

  4. HBASE表设计

    1. 表的设计 1.1 Pre-Creating Regions 默认情况下,在创建HBase表的时候会自动创建一个region分区,当导入数据的时候,所有的HBase客户端都向这一个region写数 ...

  5. HBase表数据分页处理

    HBase表数据分页处理 HBase是Hadoop大数据生态技术圈中的一项关键技术,是一种用于分布式存储大数据的列式数据库,关于HBase更加详细的介绍和技术细节,朋友们可以在网络上进行搜寻,笔者本人 ...

  6. pinpoint 修改hbase表TTL值

    操作步骤 查找出数据大的hbase表 root@990fb5560f64:/opt/hbase/hbase-# ls CHANGES.txt LICENSE.txt README.txt conf h ...

  7. pinpoint:查看hbase表和修改数据过期时间

    先做个记录,监控数据量过大时可以设置表的数据过期时间来清理数据. 1. 查找本地数据表大小 [root@ZWZF-CWY-LZY-12 ~]# cd /home/pinpoint/hbase/data ...

  8. HBase(三): Azure HDInsigt HBase表数据导入本地HBase

    目录: hdfs 命令操作本地 hbase Azure HDInsight HBase表数据导入本地 hbase hdfs命令操作本地hbase: 参见  HDP2.4安装(五):集群及组件安装 , ...

  9. Mapreduce读取Hbase表,写数据到多个Hbase表中

    Job端的变化: 通过设置conf,配置输出表,在reduce中获取输出表名字 Configuration conf = job.getConfiguration(); //输出表1 conf.set ...

  10. 4 hbase表结构 + hbase集群架构及表存储机制

      本博文的主要内容有    .hbase读取数据过程 .HBase表结构 .附带PPT http://hbase.apache.org/ 读写的时候,就需要用hbase了,换句话说,就是读写的时候. ...

随机推荐

  1. Dynamics 9.0 安装好后 公告出现 提示:出现错误。 请稍等片刻,然后重试。 如果问题仍然存在,请与管理员联系。

    此问题为系统的Bug,示例图如下: 解决方案为修改存储过程 p_RetrievePosts,将startDate参数的默认值改成 1900-01-01,endDate参数的默认值改成 9999-12- ...

  2. opencv-12-高斯滤波-双边滤波(附C++代码实现)

    开始之前 这几天由于自己的原因没有写, 一个是因为自己懒了, 一个是感觉这里遇到点问题不想往下写了, 我们先努力结束这个章节吧, 之前介绍了比较常用而且比较好理解的均值和中值滤波, 但是呢,在例程Sm ...

  3. 【FreeRTOS学习01】CubeIDE快速整合FreeRTOS创建第一个任务

    整个专栏主要是博主结合自身对FreeRTOS的实战学习以及源码分析,基于STM32F767 Nucleo-144平台,在CubeIDE下进行开发,结合官方的HAL库,将硬件环节的问题减少到最小,将精力 ...

  4. python语法学习第三天--列表

    列表:python中不用定义类型,类似工厂 列表的创建: ①创建普通列表:[1,2],用逗号隔开 ②创建一个混合列表:[1,‘zyf',3.14,[1,2,3]] ③创建空列表:empty=[] 常用 ...

  5. [poj2778 DNA Sequence]AC自动机,矩阵快速幂

    题意:给一些字符串的集合S和整数n,求满足 长度为n 只含charset = {'A'.'T‘.'G'.'C'}包含的字符 不包含S中任一字符串 的字符串的种类数. 思路:首先对S建立ac自动机,考虑 ...

  6. sql 取值时将字符串类型数字转化成整形

    select cast(a.Vchcode as int) as avchcode,a.ptypeid,a.assqty,unit,b.pfullname,b.standard,b.type from ...

  7. elasticsearch 小总结

    elasticsearch 小总结 0. 起因 距离初次写关于es的文章 https://blog.csdn.net/aca_jingru/article/details/44488703 已经过去4 ...

  8. vue-cli项目上传到github预览问题

    上传前先npm run build 后git push origin master 问题:chunk无法加载? 原因:在github.io请求chunk时,chunk的url使用的是publicPat ...

  9. scrapy五大核心组件

    scrapy五大核心组件 引擎(Scrapy)用来处理整个系统的数据流处理, 触发事务(框架核心) 调度器(Scheduler)用来接受引擎发过来的请求, 压入队列中, 并在引擎再次请求的时候返回. ...

  10. 13.3 Go章节练习题

    13.3 Go章节练习题 练习1:定义1个整数,1个小数,访问变量,打印数值和类型,更改变量的数值,打印数值 练习2:同时定义3个整数, 练习3:同时定义3个字符串 练习4:定义变量后,没有初始值,直 ...