一、HBase引入

http://hbase.apache.org/

大数据的数据库

1. 概述

Hadoop生态系统中的一个分布式、可拓展、面向列、可伸缩,具有自动容错功能的数据库。

NoSQL数据库

BigTable:一种分布式海量结构化数据存储系统

HBase基于google论文实现的开源数据库框架

场景: 对海量数据进行随机读写、实时查询(对上亿条数据能够在秒级进行访问)

表:上亿行百万列 ———TB级别甚至PB级别

设备:廉价的商用服务器

HBase:真正存储数据还是在HDFS,数据分析处理还是依赖于MapReduce

2. 搭建HBase

1)hbase-env.sh

2)hbase-site.xml

<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>

3)regionservers

指定hbase数据存储节点regionserver的主机名

4)backup-masters:指定master节点的备份节点

5)启动

bin/start-hbase.sh

6)检测

bin/start-hbase.sh

HMaster进程

HRegionServer继承

webui 端口:60010

http://beifeng-hadoop-02:60010

8)hbase shell 交互式命令

bin/hbase shell

list:查看HBase中的所有表

create 'test', 'cf':创建一张hbase表,名称test,表的列簇为'cf'

put 'test', 'rowkey001', 'cf:name','zhangshan':往test表插入一条数据,行健rowkey为rowkey001,列簇(column family)、列标签(column qualifier),值为'zhanshan'

scan 'test' : 扫描表数据

回退使用ctrl + delete回退

rowkey:

column=列主键=列簇column family   列标签column qualifier timestarp value

exit退出

3. 整合Hue

通过HBase Thrift servers

问题:无法联系到 HBase Thrift 1 服务器:Could not connect to beifeng-hadoop-02:9090

解决方法:在HBASE上启动thrift服务

启动:bin/hbase-daemon.sh start thrift

二、HBase的表

Table 逻辑模型:

rowkey 行键 --> 类似于RDBMS的主键,唯一标识一行记录

根据rowkey进行排序

列簇column family: 创建HBASE表的时候要预先指定,类似于schema的概念

cf1、cf2、cf3、cf4

列标签: column qualifier

列标签可随意添加,真实使用的时候,根据具体业务来定义,由业务来进行约束。

列标签在不同行的同一个列簇下是可以不相同的。

timestamp:时间戳,单元格的版本号

单元格: {table、rowkey、column family、column qualifier、timestamp}  --> value

hbase的Update:并不是真正意义上对原来的数据进行修改,仅仅只是做了新增操作,只是新增了一个单元格,与原来的单元格仅仅只是时间戳和value不同。

describe 'test'   ---> 查看hbase表的详细信息

版本:

create 'test01', {NAME => 'cf1', VERSIONS => '3', MIN_VERSIONS => '2' }

scan 'test01', {VERSIONS => 2}

table

rowkey

column family

column qualifier

并发:假如数据都是不可变的

并发编程:将所有对象不可变

Table物理模型:

HBase组件:

1)HMaster:

(1)主节点

(2)为Region Server分配Region

(3)发现失效的Region Server并重新分配其上的region

(4)管理用户对HBASE表的增删改查操作

(5)数据不经过Master

2)Regionserver:

(1)HBase表的分区

(2)按照行 rowkey将表数据进行划分,每划分出来的部分称为region,HBASE负载均衡的最小单元。

默认情况下,表创建时只有一个Region,而且Region空间大小默认是256M。

随着数据的增加,Region会自动切分,均分成两个Region。

(3)负责region,处理对这些region的IO请求

3)Zookeeper

(1)通过选举,保证任何时候,急群众只有一个master,Master与Region Servers启动时会向Zookeeper注册

(2)存储Region的寻址入口:

Zookeeper上面存储hbase:meta这张表有哪些region,这些region在哪些RegionServer上面,Region包含哪些rowkey

zk上   /hbase/meta-region-server

(3)表由哪些Region,这些Region在哪些RegionServers上,Region包含哪些rowkey(起始rowkey,截止rowkey)

这些信息,HBASE有张默认的系统表

hbase:meta 元数据表,记录以上描述的信息。和普通表是一样的

(4)实时监控Region server的上线和下线信息,并实时通知给Master

client -> zookeeper

(1)从/hbase/meta-region-server节点获取关于hbase:meta表的信息,hbase:meta这张表有哪些region,这些region分布在哪些RegionServer上,每个Region包含哪些rowkey

(2)从获取到RegionServer信息,直接连接到该RegionServer上,hbase:meta表数据,获取到test表相关信息

(3)从test表获取真正数据

Zookeeper上面

ls /hbase/

meta-region-server:

backup-masters: 存储的是backup master信息

table:存储的是HBASE上表信息

draining:表示哪些RegionServer下线了

region-in-transition: 事务

table-lock:锁信息,只有行锁

running:

master:master节点的状态信息

namespace:表的命名空间

hbaseid:

online-snapshot:

replication:

splitWAL:

recovering-regions:

rs:RegionServers

hbase表都属于某个namespace,默认default

系统namespace:hbase

create 'test02', 'cf1', '', SPLITS => ['10', '20', '30' , '40' ]

表名,region起始rowkey,时间戳,md5编码

Region内部结构:

Region根据表的Column Family列簇划分Store,

Store: MemStore,StoreFile

put 'test02', '25', 'cf1:name', 'value222'

1)访问zookeeper获取hbase:meta表的位置信息

2)访问hbase:meta表的数据,获取到test02的位置信息

3)访问test02表

(1)根据rowkey找到对应的region

(2)根据cf1列簇名称找到Region中Store

(3)插入到Store李米娜MemStore

(4)MemStore达到最大空间值,刷写到磁盘生成一个StoreFile(本质就是HFile)。

滚动刷写:当MemStore空间满后,HBASE另外分配一块MemStore来接收数据,而原来的不再接收新数据,只是在进行持久化到磁盘的操作。

MemStore:一块内存空间,默认128M。

StoreFile:物理是上DataNode上的一个block

Region的容错:

Region的数据本质是HDFS上的文件,(备份),所有Region上的数据其实是由备份的。

只要Region的信息还在,Region就可以在其他RegionServer上重生。

当正在往memstore写数据时,RegionServer挂掉;数据丢失。

WAL机制: Write Ahead Log

HLog: 本质也是一个HDFS文件。当memstore将数据刷写到磁盘上生成storefile后,对应的数据也会从HLog上删掉。

hbase往memstore写数据,写到HLog(顺序写),再往memstore上写。

http://www.cnblogs.com/frydsh/archive/2013/04/13/3018666.html

HLog日志文件,HLog始终是与MemStore中的数据一致,

hdfs block是一个逻辑概念

LSM算法:http://www.cnblogs.com/yanghuahui/p/3483754.html

三、HDFS上的HBASE

/hbase

/WALS  --->HLog文件存储路径

/data  ---> HBASE表数据存储路径

/oldWALS ---> 当MemStore将数据刷写到磁盘生成StoreFile时,HLog会将对应的这部分数据移到oldWALs中,后面再进行删除。

HBase获取不到zookeeper上的master信息问题:

http://blog.csdn.net/zwx19921215/article/details/41824751

四、HBase表的特性

五、HBase shell

JRuby实现:

help

命令组:

COMMAND GROUPS:
Group name: general
Commands: status, table_help, version, whoami

Group name: ddl
Commands: alter, alter_async, alter_status, create, describe, disable, disable_all, drop, drop_all, enable, enable_all, exists, get_table, is_disabled, is_enabled, list, show_filters

删除表:disable 'test02',drop 'test02'

Group name: namespace
Commands: alter_namespace, create_namespace, describe_namespace, drop_namespace, list_namespace, list_namespace_tables

创建namespace:create_namespace 'ns1'

查看namespace:list_namespace

Group name: dml
Commands: append, count, delete, deleteall, get, get_counter, incr, put, scan, truncate, truncate_preserve

scan 'test01'

get 'test01','rowkey001'

get 'test01','rowkey005', 'cf:name'

get 'test01','rowkey005', 'cf'

Group name: tools
Commands: assign, balance_switch, balancer, catalogjanitor_enabled, catalogjanitor_run, catalogjanitor_switch, close_region, compact, flush, hlog_roll, major_compact, merge_region, move, split, trace, unassign, zk_dump

create 'test03','cf1'

put 'test03','rowkey001','cf1:name','zhangsan'

put 'test03','rowkey001','cf1:sex,'M'

flush 'test03'  刷写memstore数据到storefile

Group name: replication
Commands: add_peer, disable_peer, enable_peer, list_peers, list_replicated_tables, remove_peer, set_peer_tableCFs, show_peer_tableCFs

Group name: snapshots
Commands: clone_snapshot, delete_snapshot, list_snapshots, rename_snapshot, restore_snapshot, snapshot

Group name: quotas
Commands: list_quotas, set_quota

Group name: security
Commands: grant, revoke, user_permission

Group name: visibility labels
Commands: add_labels, clear_auths, get_auths, set_auths, set_visibility

六、JavaAPI

http://mvnrepository.com/

HBase支持SNAPPY压缩:

1)需要将hadoop lib native里面的文件copy到hbase解压安装下lib目录

cp -r $HADOOP_HOME/lib/native $HBASE/lib/

2)在hbase-env.sh添加属性

LD_LIBRARY_PATH =

可以从hadoop-env.sh中拷贝过来

3)将native下的.so文件拷贝的jdk的jre目录中

cp native/*.so  /jdk/jre/lib/

4)重启hbase

5)检验是否支持snappy

bin/hbase ...CompressionTest ~/mkdir SNAPPY

6)创建表的时候指定SNAPPY压缩

create 'test-snappy', {NAME=>'cf1', COMPRESSION => 'SNAPPY'}

shell命令要点

属性{'key' => 'value'},如果key为hbase的常量,则不用引号

使用脚本形式执行HBASE shell命令

echo 'list' | bin/hbase shell

《OD学HBase》20160814的更多相关文章

  1. 《OD学HBase》20160821

    一.HBase性能调优 1. JVM内存调优 MemStore内存空间,设置合理大小 memstore.flush.size 刷写大小 134217728 = 128M memstore.mslab. ...

  2. 《OD学HBase》20160820

    一.案例 微博: 微博内容: 关注用户和粉丝用户: 添加或移除关注用户 查看关注用户的微博内容 微博数据存储: 响应时间 秒级 无延迟 (1)mysql分布式 (2)hbase数据库 使用HBase数 ...

  3. 《OD学hive》第四周0717

    一.Hive基本概念.安装部署与初步使用 1. 后续课程 Hive 项目:hadoop hive sqoop flume hbase 电商离线数据分析 CDH Storm:分布式实时计算框架 Spar ...

  4. 《OD学hadoop》20160903某旅游网项目实战

    一.大数据的落地点 1.数据出售 数据商城:以卖数据为公司的核心业务 2. 数据分析 百度统计 友盟 GA IBM analysis 3.搜索引擎 4. 推荐系统 mahout 百分比 5.精准营销 ...

  5. 《OD学Sqoop》数据转换工具Sqoop

    一. 第二阶段课程回顾 hadoop 2.x HDFS YARN MapReduce Zookeeper Hive 二.大数据协作框架 对日志类型的海量数据进行分析 hdfs mapreduce/hi ...

  6. 《OD学hadoop》第二周0702

    大数据离线计算hadoop2.x 三周(6天) markdown文本剪辑器 罗振宇--跨年演讲,时间的朋友 http://tech.163.com/16/0101/11/BC87H8DF000915B ...

  7. 《OD学hadoop》第一周0625

    一.实用网站 1. linux内核版本 www.kernel.org 2. 查看网站服务器使用的系统  www.netcraft.com 二.推荐书籍 1. <Hadoop权威指南> 1- ...

  8. 一起学HBase——总结HBase中的PUT、GET、DELETE操作

    传统的关系型数据库有CRUD增删改查操作,同样对于NoSQL列式数据库也有CRUD操作.本文对HBase中常用的Scan.GET.PUT.DELETE操作的用法做个总结. Put操作 Put相当于传统 ...

  9. 一起学HBase——简单介绍HBase各种组件

    HBase是谷歌BigTble的开源实现.谷歌的三篇论文拉开了大数据江湖的序幕,铸就了现在以Hadoop为主的大数据技术生态圈.而HBase是开源的大数据数据库,和传统的行式数据库不同的是,HBase ...

随机推荐

  1. 项目前端技术-learn

    赶鸭子上架 之 前端学习 目前项目中的前端用到的技术主要是:1. bootstrap框架; 2. 基于javscript的jQuery, jQuery ui; 3. dust前端模板引型.

  2. Beautiful People 分类: Brush Mode 2014-10-01 14:33 100人阅读 评论(0) 收藏

    Beautiful People Time Limit: 10000/5000MS (Java/Others) Memory Limit: 128000/64000KB (Java/Others)   ...

  3. 编译libcore-amr静态库

    在此链接下 https://github.com/feuvan/opencore-amr-iOS 下载它的源码到本地, 然后cd到此目录下,在终端输入命令./build_ios_xcode6.sh,便 ...

  4. 户外物理渗透:终端机,客户端的web测试思路

    现在的客户端界面越做越好看了,很多用到了web技术,轻便.界面炫.更新快,但是这样web的缺点也就出来了,就是不稳定,容易受用户等因素影响. 因为很多客户端web是内嵌的,内部通信,所以很多对安全的考 ...

  5. HDU1048The Hardest Problem Ever

    The Hardest Problem Ever Time Limit:1000MS     Memory Limit:32768KB     64bit IO Format:%I64d & ...

  6. HDU 1028Ignatius and the Princess III(母函数简单题)

     Ignatius and the Princess III Time Limit:1000MS     Memory Limit:32768KB     64bit IO Format:%I64d ...

  7. vector 的resize 和 reserve

    首先声明,都是转载的,理解知识为主要目的. http://www.cnblogs.com/zahxz/archive/2013/02/20/2918711.html C++内置的数组支持容器的机制,但 ...

  8. vs2010创建并使用DLL

    一.为什么需要dll 代码复用是提高软件开发 效率的重要途径.一般而言,只要某部分代码具有通用性,就可将它构造成相对独立的功能模块并在之后的项目中重复使用.比较常见的例子是各种应用程序框架, 如ATL ...

  9. Using 1.7 requires compiling with Android 4.4 (KitKat); currently using API 8

    Refer :http://www.cnblogs.com/mengfanrong/p/3745475.html Righ click on your project > properties ...

  10. 在 OS X Yosemite 中部署Mesos

    1)从mesos的官网下载mesos的最新稳定版本:http://mesos.apache.org/downloads/,本文为mesos-0.22.1版本. 2)移动至你喜欢的目录(你在该目录下具有 ...