目录

目录 1

1. 前言 3

2. 缩略语 3

3. 安装规划 3

3.1. 用户规划 3

3.2. 目录规划 4

4. 相关端口 4

5. 下载安装包 4

6. 修改配置文件 5

6.1. 修改策略 5

6.2. 修改conf/regionservers 5

6.3. 修改conf/hbase-env.sh 5

6.4. 修改conf/log4j.properties 6

6.5. 修改conf/hbase-site.xml 6

6.5.1. hbase.master.info.port 8

6.5.2. hbase.master.info.bindAddress 8

6.5.3. hbase.hregion.majorcompaction 8

6.5.4. zookeeper.session.timeout 9

6.5.5. 其它参数 9

7. 启动HBase 11

7.1. 启动Master 11

7.2. 启动RegionServer 11

7.3. 启动ThriftServer 11

7.4. 启动HBase rest server 13

7.4.1. Cluster-Wide 13

7.4.2. Namespace 14

7.4.3. Table 14

7.4.4. Get 15

7.4.5. Scan 15

7.4.6. Put 16

8. 基本HBase命令 17

9. 常用HBase命令 19

10. 备HMaster 20

11. 访问控制配置 20

11.1. 修改配置 20

11.2. 权限管理 20

11.2.1. 授权权限 20

11.2.2. 收回权限 20

11.2.3. 更改权限 21

11.2.4. 查看权限 21

12. HBase Web 21

12.1. Master Web 21

12.2. Region Web 21

13. 运维操作 22

13.1. 优雅重启RegionServer 22

13.2. region均衡 22

13.3. 分拆Region 22

13.4. 合并Region 23

13.5. 查看指定Region的数据 24

13.6. 如何迁移Region? 24

13.7. 如何查看Region大小? 24

13.8. WAL工具 25

13.9. Compact和Split 26

13.10. 是否可直接kill掉RegionServer进程? 26

13.11. 下线RegionServer 27

13.12. RowKey和RegionServer不一致问题 27

13.13. 快照迁移数据 27

13.13.1. 创建快照 27

13.13.2. 迁移快照文件 27

13.13.3. 恢复快照 28

13.13.4. 删除快照 28

13.13.5. 查看快照列表 29

附1:元数据 29

附2:基本概念 30

1)HBase和HDFS 30

2)Region&MemStore&StoreFile 31

3)StoreFile文件 31

4)Region name 31

附3:crontab监控脚本 32

附4:批量操作工具 32

附5:JVM基础知识 33

1)JPS命令 33

2)JVM内存 33

3)JVM GC(Garbage Collection,垃圾回收) 34

4)并行和并发 34

5)JVM的CMS垃圾回收 34

6)JVM内存参数 35

1. 前言

本文将HBase-2.2.1安装在Hadoop-3.1.2上,关于Hadoop-3.1.2的安装,请参见《基于zookeeper-3.5.5安装hadoop-3.1.2》一文。安装环境为64位CentOS-Linux 7.2版本。

本文将在HBase官方提供的quickstart.html文件的指导下进行,在docs/getting_started目录下可找到quickstart.html,或直接浏览在线的:http://hbase.apache.org/book/quickstart.html

安装使用外置的ZooKeeper,有关ZooKeeper的安装,请参见《基于zookeeper-3.5.5安装hadoop-3.1.2》一文。

关于分布式安装,请浏览:http://hbase.apache.org/book/standalone_dist.html#distributed,关于HBase使用外置的ZooKeeper配置,请浏览:http://hbase.apache.org/book/zookeeper.html。所有在线的文档,均会出现在二进制安装包解压后的docs目录下。

2. 缩略语

缩写

全写

说明

JVM

Java Virtual Matchine

Java虚拟机

jps

JVM Process Status

Java虚拟机进程状态工具

HDFS

Hadoop Distributed File System

Hadoop分布式文件系统

HBase

Hadoop Database

Hadoop数据库

WAL

Write-Ahead Log

预写日志,类似于MySQL的binlog

RS

Region Server

zk

Zookeeper

mr

Mapreduce

rs

RegionServer

DistCp

Distributed Copy

分布式复制

RFA

RollingFileAppender

Log4j的一种日志器类型,文件大小到达指定大小时产生一个新的文件

DRFA

DailyRollingFileAppender

Log4j的一种日志器类型,每天产生一个日志文件

3. 安装规划

3.1. 用户规划

安装用户名

运行用户名

安装和运行用户组名

HBase

hbase

hbase

supergroup

Hadoop

hadoop

hadoop

Zookeeper

zk

zk

Hadoop的默认用户组名为supergroup,为避免一些权限问题,所以最好HBase也置于相同用户组,以减少后续的麻烦。当然也可以在安装Hadoop时,改变配置项dfs.permissions.supergroup值来设置用户组,但不管如何,最好是同一用户组。

一般建立HBase和Hadoop共享同一个Zookeeper集群,所以独立安装部署Zookeeper集群。

为何Zookeeper的安装运行用户名为zk,而不是zookeeper?这是因为当用户名超过8个字符时,ps等一些命令的结果将不显示用户名,替代的是用户ID。

3.2. 目录规划

 

安装目录

HBase

/data/hbase

Hadoop

/data/hadoop

Zookeeper

/data/zookeeper

4. 相关端口

2888

ZooKeeper,如果是Leader,用来监听Follower的连接

3888

ZooKeeper,用于Leader选举

2181

ZooKeeper,用来监听客户端的连接

16010

hbase.master.info.port,HMasterhttp端口

16000

hbase.master.port,HMaster的RPC端口

16030

hbase.regionserver.info.port,HRegionServerhttp端口

16020

hbase.regionserver.port,HRegionServer的RPC端口

8080

hbase.rest.port,HBase REST server的端口

9095

hbase.thrift.info.port,HBase Thrift Server的http端口号

5. 下载安装包

官网:http://hbase.apache.org/,在这里即可找到下载HBase的链接。

下载国内映像站点:http://mirror.bit.edu.cn/apache/hbase/,HBase-2.2.1版本的下载网址:http://mirror.bit.edu.cn/apache/hbase/2.2.1/。选择下载hbase-2.2.1-bin.tar.gz。

6. 修改配置文件

6.1. 修改策略

在一台机器上修改好,再批量复制到集群中的其它节点。使用批量命令工具mooon_ssh和批量上传文件工具mooon_upload即可达到目的。

6.2. 修改conf/regionservers

可选的,如果Master到RegionServers间没有设置免密码登录,或者不会使用到start-hbase.sh和stop-hbase.sh,则可保留RegionServers文件为空。

regionservers类似于Hadoop的slaves文件,不需要在RegionServer机器上执行些修改。

将所有HRegionServers的IP或主机名一行一行的例举在在regionservers文件中,注意必须一行一个,不能一行多个。本文配置如下:

hadoop@test_64:~/hbase/conf> cat regionservers

192.168.31.30

192.168.31.31

192.168.31.32

6.3. 修改conf/hbase-env.sh

需要在所有机器上做同样的操作,可以借助scp命令,先配置好一台,然后复制过去,主要修改内容如下。

1) 设置JAVA_HOME

# The java implementation to use.  Java 1.6 required.

export JAVA_HOME=/data/jdk

上述/data/jdk是JDK的安装目录。

2) 设置HADOOP_HOME

export HADOOP_HOME=/data/hadoop

3) 设置HBASE_CLASSPATH

# Extra Java CLASSPATH elements.  Optional.

export HBASE_CLASSPATH=$HADOOP_HOME/etc/hadoop

这个设置是不是有点让人迷惑?CLASSPATH怎么指向了hadoop的conf目录?这个设置是让hbase能找到hadoop,名字确实没取好。

除此之外,还可以考虑在hbase的conf目录下建立hadoop的hdfs-site.xml软链接。

4) 设置HBASE_MANAGES_ZK

# Tell HBase whether it should manage it's own instance of Zookeeper or not.

export HBASE_MANAGES_ZK=false

如果HBASE_MANAGES_ZK值为true,则表示使用HBase自带的ZooKeeper,建议单独部署ZooKeeper,这样便于ZooKeeper同时为其它系统提供服务。

5) 设置JVM

JVM项

说明

HBASE_THRIFT_OPTS

export HBASE_THRIFT_OPTS="$HBASE_THRIFT_OPTS -Xmx2048m -Xms2048m"

HBase Thrift JVM设置,-Xmx指定最大堆占用的内存,-Xms指定起始时分析的堆内存,如果物理内存为32G,可以考虑设置为2048m。

SERVER_GC_OPTS

开始GC日志

可用来分析线程的停顿时长等,有三处SERVER_GC_OPTS,只需要取消任意一注释即可。

如果希望命令行执行“hbase shell”时不打屏INFO和WARN级别日志,可修改hbase-env.sh中的“HBASE_ROOT_LOGGER”。

# HBASE_ROOT_LOGGER=INFO,DRFA

HBASE_ROOT_LOGGER=OFF,DRFA

6.4. 修改conf/log4j.properties

1) 设置日志文件目录:

hbase.log.dir=/data/hbase/log

2) 设置Cleaner的日志级别:

log4j.logger.org.apache.hadoop.hbase.master.cleaner.CleanerChore=DEBUG

6.5. 修改conf/hbase-site.xml

hbase-site.xml是HBase的配置文件。默认的hbase-site.xml是空的,如下所示:

<?xml version="1.0"?>

<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<!--

/**

*

* Licensed to the Apache Software Foundation (ASF) under one

* or more contributor license agreements.  See the NOTICE file

* distributed with this work for additional information

* regarding copyright ownership.  The ASF licenses this file

* to you under the Apache License, Version 2.0 (the

* "License"); you may not use this file except in compliance

* with the License.  You may obtain a copy of the License at

*

*     http://www.apache.org/licenses/LICENSE-2.0

*

* Unless required by applicable law or agreed to in writing, software

* distributed under the License is distributed on an "AS IS" BASIS,

* WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.

* See the License for the specific language governing permissions and

* limitations under the License.

*/

-->

<configuration>

</configuration>

没关系,就用它。不要用docs目录下的hbase-default.xml,这个会让你看得难受。

编辑hbase-site.xml,添加如下内容(摘自standalone_dist.html,搜索“Fully-distributed”):

<configuration>

<property>

<name>hbase.rootdir</name>

<value>hdfs://hadoop10102:8020/hbase</value>

<description>The directory shared by RegionServers.</description>

</property>

<property>

<name>hbase.cluster.distributed</name>

<value>true</value>

<description>The mode the cluster will be in. Possible values are

false: standalone and pseudo-distributed setups with managed Zookeeper

true: fully-distributed with unmanaged Zookeeper Quorum (see hbase-env.sh)

</description>

</property>

<property>

<name>hbase.zookeeper.quorum</name>

<value>hadoop10108,hadoop10109,hadoop10110,hadoop10111,hadoop10112</value>

<description>Comma separated list of servers in the ZooKeeper Quorum.

For example, "host1.mydomain.com,host2.mydomain.com,host3.mydomain.com".

By default this is set to localhost for local and pseudo-distributed modes

of operation. For a fully-distributed setup, this should be set to a full

list of ZooKeeper quorum servers. If HBASE_MANAGES_ZK is set in hbase-env.sh

this is the list of servers which we will start/stop ZooKeeper on.

</description>

</property>

<property>

<name>hbase.master.maxclockskew</name>

<value>600000</value>

<description>Time(ms) difference of regionserver from master</description>

</property>

</configuration>

hbase.zookeeper.quorum”可以填写IP列表。hdfs://172.25.40.171:9001对应hdfs-site.xml中的“dfs.namenode.rpc-address”。“hbase.zookeeper.quorum”配置为ZooKeeper集群各节点主机名或IP。

如果HDFS是cluster模式,那么建议hbase.rootdir请改成集群方式,如:

<property>

<name>hbase.rootdir</name>

<value>hdfs://test/hbase</value>

</property>

即值为hdfs-site.xml中的dfs.nameservices值,再加上hbase目录。上述示例中的test,实际为hdfs-site.xml中的dfs.nameservices的值,core-site.xml中的fs.defaultFS也用到了。

更多的信息,可以浏览:http://hbase.apache.org/book/config.files.html

6.5.1. hbase.master.info.port

用于指定HMaster的http端口。

6.5.2. hbase.master.info.bindAddress

用于指定HMaster的http的IP地址,如果不设定该值,可能使用IPv6地址。

6.5.3. hbase.hregion.majorcompaction

MajorCompaction间隔时间,单位为毫秒,如果为0表示手工执行MajorCompaction。HBase为防止小文件过多,在必要时通过Compaction合并小文件,由两类Compaction组成:一是MinorCompaction,二是MajorCompaction。

MajorCompaction对所有StoreFile进行合并操作,而MinorCompaction只对部分StoreFile进行合并。

默认值为604800000毫秒,表示每7天执行一次MajorCompaction操作。MajorCompaction时性能影响十分严重,一般关闭自动MajorCompaction,而采取空闲时手工完成。

在HBase shell中手工MajorCompation:

major_compact 'tablename'

或命令行中执行:

echo "tablename"|hbase shell

major_compact使用方法:

Examples:

Compact all regions in a table: // 合并整个表

hbase> major_compact 't1'

hbase> major_compact 'ns1:t1'

Compact an entire region: // 合并一个Region

hbase> major_compact 'r1'

Compact a single column family within a region: // 合并一个Region的一个列族

hbase> major_compact 'r1', 'c1'

Compact a single column family within a table: // 合并一个表的一个列族

hbase> major_compact 't1', 'c1'

6.5.4. zookeeper.session.timeout

默认为90秒(90000ms),RegionServer和ZooKeeper间的超时时长。当达到超时时间后,RegionServer会被ZooKeeper从RegionServer集群列表中清除,同时HBase Master会收到清除通知,然后HBase Master会对这台RegionServer的Region做Balance,让其它RegionServer接管,该参数决定了RegionServer在多长时间内可完成Failover。

6.5.5. 其它参数

参数名

默认值

说明

hbase.regionserver.thrift.port

9090

ThriftServer的服务端口号

hbase.regionserver.thrift.http

false

是否为HTTP模式。注意要么是HTTP模式,要么是非HTTP模式,不能同时是HTTP模式,又是其它模式。

hbase.thrift.ssl.enabled

false

ThriftServer是否启用SSL

hbase.master.hfilecleaner.ttl

300000

单位为毫秒,默认5分钟,为org.apache.hadoop.hbase.master.cleaner.CleanerChore所使用,仅源代码文件StorefileRefresherChore.java和TimeToLiveHFileCleaner.java直接使用了hbase.master.hfilecleaner.ttl。如果使用ExportSnapshot集群间迁移数据,则该值要比最大表的迁移时间长,否则迁移过程中已迁移的表文件可能被删除,如果看到错误“Can't find hfile”,一般是这个原因,新版本将修复该BUG,此BUG由HBASE-21511引入。

hbase.cleaner.scan.dir.concurrent.size

Cleaner线程数系数

hbase.hregion.majorcompaction

604800000

单位为毫秒,默认为7天,Major Compact的周期,值为0时表示关闭自动Major Compact

hbase.hregion.majorcompaction.jetter

0.2

防止RegionServer在同一时间进行Major Compact

hbase.hstore.compactionThreshold

3

Minor Compact的最少文件数

hbase.hstore.compaction.max

10

表示一次Minor Compact中最多选取10个StoreFile

hbase.hregion.max.filesize

10737418240

默认为10G,StoreFile达到此大小时分裂

hbase.hregion.memstore.flush.size

134217728

单位为字节,默认为整128M,当一个MemStore达到该大小时,即Flush到HDFS生成HFile文件。

hbase.hregion.memstore.block.multiplier

4

hbase-common

/org/apache/hadoop/hbase/HConstants.java

系数值,当一个Region的大小达到(hbase.hregion.memstore.block.multiplier*hbase.hregion.memstore.flush.size)时,会阻塞该Region操作,并强制Flush。在Flush成功后才会恢复写操作,这个时候可看到错误“RegionTooBusyException: Over memstore limit”。

hbase.regionserver.global.memstore.upperLimit(老)

hbase.regionserver.global.memstore.size(新)

0.4

hbase-server

/org/apache/hadoop/hbase/io/util/MemorySizeUtil.java

浮点值,RegionServer全局memstore的大小。

当RegionServer的memstore超过这个比率,该RegionServer的所有update都会被阻塞,所以应当避免RegionServer出现memstore总大小超过upperLimit。

hbase.regionserver.global.memstore.lowerLimit(老)

hbase.regionserver.global.memstore.size.lower.limit(新)

0.95

hbase-server

/org/apache/hadoop/hbase/io/util/MemorySizeUtil.java

浮点值,当RegionServer的memstore超过这个比率时,即使没有Region达到Flush,MemstoreFlusher也会挑选一个Region去Flush。

hbase.hstore.compaction.kv.max

10

Compact时每次从HFile中读取的KV数

hbase.hstore.blockingStoreFiles

10

当StoreFile文件数超过该值时,则在Flush前先进行Split或Compact,并阻塞Flush操作。直到完成或达到hbase.hstore.blockingWaitTime指定的时间后才可以Flush。当RegionServer日志大量出现“has too many store files; delaying flush up to”时表示需要调整该值,一般可以调大些,比如调成100。

hbase.hstore.blockingWaitTime

90000

单位为毫秒,默认为90秒

hbase.hregion.memstore.mslab.enabled

true

MemStore-Local Allocation Buffer,是否开启mslab,作用是减少因内存碎片导致的Full GC

hbase.regionserver.regionSplitLimit

1000

单台RegionServer管理的最多Region个数

hbase.regionserver.logroll.period

3600000

单位为毫秒,默认为1小时,WAL文件滚动时间间隔

hbase.server.thread.wakefrequency

10000

定时检查是否需要Compact,检查周期为:(hbase.server.thread.wakefrequency*hbase.server.compactchecker.interval.multiplier)

hbase.server.compactchecker.interval.multiplier

1000

定时检查是否需要Compact,检查周期为:(hbase.server.thread.wakefrequency*hbase.server.compactchecker.interval.multiplier)

hbase.thrift.info.port

9095

信息WEB端口,如果值小于0,则不会开启WEB

hbase.thrift.info.bindAddress

0.0.0.0

信息WEB地址,默认为“0.0.0.0”

hbase.regionserver.hlog.blocksize

WALUtil.java

当WAL的大小达到

(hbase.regionserver.hlog.blocksize

*hbase.regionserver.maxlogs)时,触发Flush

hbase.regionserver.maxlogs

AbstractFSWAL.java

hbase.regionserver.logroll.multiplier

AbstractFSWAL.java

系数值,注意区分

hbase.hregion.memstore.block.multiplier

7. 启动HBase

7.1. 启动Master

停止Master,只需要将下列的start改成stop即可。

hbase-daemon.sh start master

7.2. 启动RegionServer

停止RegionServer,只需要将下列的start改成stop即可。

hbase-daemon.sh start regionserver

7.3. 启动ThriftServer

HBase有两个版本的ThriftServer,对应两套不同的不兼容的接口实现:thrift和thrift2,其中thrift2是后加入的。从HBase2.X开始,两个版本除接口不同,其它是共享的。

启动ThriftServer使用如下语句,而停止ThriftServer只需将start改成stop即可。

hbase-daemon.sh start thrift2 --framed -nonblocking

正式环境一般不要使用Java版本的“-nonblocking”模式,因为它是单线程的。而应当使用“-hsha”或“-threadedselector”,推荐使用并发最强的“-threadedselector”模式。

有关“hbase thrift2”的参数,可执行“hbase thrift2 --help”查看到,“hbase thrift”也类似。

1) Hsha模式

hbase-daemon.sh start thrift2 --framed -hsha --workers 30或

hbase-daemon.sh start thrift2 --framed -hsha -w 30或

hbase thrift2 --framed -hsha -w 30

注意,参数是“-hsha”,而不是“--hsha”,其中“-f”和“--framed”等价,“-w”和“--workers”等价。

2) ThreadedSelector模式

hbase-daemon.sh start thrift2 --framed -threadedselector -s 10 -m 10 -w 50或

hbase thrift2 --framed -threadedselector -s 10 -m 10 -w 50

其中,-s”和“--selectors”等价,“-m”和“--minWorkers”等价。

3) 错误“Cannot get replica 0 location for”

此错误表示有请求访问了不存在的HBase表。

ERROR [thrift-worker-18] client.AsyncRequestFutureImpl: Cannot get replica 0 location for

4) 错误“ExecutorService rejected execution”

队列大小偏小,启动ThriftServer时指定队列大小:“-q 10000”或“--queue -10000”。

WARN  [Thread-16] server.TThreadedSelectorServer: ExecutorService rejected execution!

java.util.concurrent.RejectedExecutionException: Task org.apache.thrift.server.Invocation@1642f20a rejected from org.apache.hadoop.hbase.thrift.THBaseThreadPoolExecutor@7cc22596[Running, pool size = 20, active threads = 20, queued tasks = 1000, completed tasks = 32792177]

5) 错误“RegionTooBusyException: Over memstore limit”

错误相关配置项:hbase.hregion.memstore.block.multiplier和hbase.hregion.memstore.flush.size,前者默认值为4,后者默认值为128MB。出错此错误时,可考虑将hbase.hregion.memstore.block.multiplier调大为8。

INFO  [thrift-worker-2] client.RpcRetryingCallerImpl: RegionTooBusyException: Over memstore limit=512.0M, regionName=f146450279edde75342d003affa36be6, server=hadoop003,16020,1572244447374

at org.apache.hadoop.hbase.regionserver.HRegion.checkResources(HRegion.java:4421)

at org.apache.hadoop.hbase.regionserver.HRegion.put(HRegion.java:3096)

at org.apache.hadoop.hbase.regionserver.RSRpcServices.mutate(RSRpcServices.java:2877)

6) 错误“client.RpcRetryingCallerImpl: Exception: Over memstore limit”

错误相关配置项:hbase.hregion.memstore.block.multiplier和hbase.hregion.memstore.flush.size,前者默认值为4,后者默认值为128MB。

INFO  [thrift-worker-24] client.RpcRetryingCallerImpl: Exception: Over memstore limit=512.0M, regionName=f80b7247cce17f3faac8731212ce43ba, server=hadoop003,16020,1572244447374

at org.apache.hadoop.hbase.regionserver.HRegion.checkResources(HRegion.java:4421)

at org.apache.hadoop.hbase.regionserver.HRegion.put(HRegion.java:3096)

at org.apache.hadoop.hbase.regionserver.RSRpcServices.mutate(RSRpcServices.java:2877)

。。。

, details=row '13871489517670268' on table 'test' at region=test,13628864449,1572513486889.f80b7247cce17f3faac8731212ce43ba., hostname=hadoop003,16020,1572244447374, seqNum=10634659, see https://s.apache.org/timeout

7.4. 启动HBase rest server

默认端口号为8080,可使用命令行参数“-p”或“--port”指定为其它值。

bin/hbase-daemon.sh start rest -p 8080

简单访问示例(假设在10.143.136.232上启动了HBase rest server):

1) 查看HBase版本:

http://10.143.136.232:8080/version/cluster

2) 查看集群状态

http://10.143.136.232:8080/status/cluster

3) 列出所有非系统表

http://10.143.136.232:8080/

4) 列出表test的所有regions

http://10.143.136.232:8080/test/regions

5) 取rowkey为100000797550117的整行数据(返回结果需要base64解密)

http://10.143.136.232:8080/test/100000797550117

6) 取rowkey为100000797550117,列族cf1下列field0列的数据(返回结果需要base64解密)

http://10.143.136.232:8080/test/100000797550117/cf1:field0

更多请浏览:

http://hbase.apache.org/book.html#_rest

7.4.1. Cluster-Wide

Endpoint

HTTP Verb

说明

示例

/version/cluster

GET

查看HBase版本

curl -vi -X GET \

-H "Accept: text/xml" \

"http://example.com:8000/version/cluster"

/status/cluster

GET

查看集群状态

curl -vi -X GET \

-H "Accept: text/xml" \

"http://example.com:8000/status/cluster"

/

GET

列出所有的非系统表

curl -vi -X GET \

-H "Accept: text/xml" \

"http://example.com:8000/"

注:可浏览器中直接打开,如:http://10.143.136.232:8080/version/cluster

7.4.2. Namespace

Endpoint

HTTP Verb

说明

示例

/namespaces

GET

列出所有namespaces

curl -vi -X GET \

-H "Accept: text/xml" \

"http://example.com:8000/namespaces/"

/namespaces/namespace

GET

查看指定namespace的说明

curl -vi -X GET \

-H "Accept: text/xml" \

"http://example.com:8000/namespaces/special_ns"

/namespaces/namespace

POST

创建一个新的namespace

curl -vi -X POST \

-H "Accept: text/xml" \

"example.com:8000/namespaces/special_ns"

/namespaces/namespace/tables

GET

列出指定namespace下的所有表

curl -vi -X GET \

-H "Accept: text/xml" \

"http://example.com:8000/namespaces/special_ns/tables"

/namespaces/namespace

PUT

修改一个已存在的namespace

curl -vi -X PUT \

-H "Accept: text/xml" \

"http://example.com:8000/namespaces/special_ns

/namespaces/namespace

DELETE

删除一个namespace,前提是该namespace已为空

curl -vi -X DELETE \

-H "Accept: text/xml" \

"example.com:8000/namespaces/special_ns"

注:斜体部分是需要输入的。

7.4.3. Table

Endpoint

HTTP Verb

说明

示例

/table/schema

GET

查看指定表的schema

curl -vi -X GET \

-H "Accept: text/xml" \

"http://example.com:8000/users/schema"

/table/schema

POST

使用schema创建一个新的表或修改已存在表的schema

curl -vi -X POST \

-H "Accept: text/xml" \

-H "Content-Type: text/xml" \

-d '<?xml version="1.0" encoding="UTF-8"?><TableSchema name="users"><ColumnSchema name="cf" /></TableSchema>' \

"http://example.com:8000/users/schema"

/table/schema

PUT

使用schema更新已存在的表

curl -vi -X PUT \

-H "Accept: text/xml" \

-H "Content-Type: text/xml" \

-d '<?xml version="1.0" encoding="UTF-8"?><TableSchema name="users"><ColumnSchema name="cf" KEEP_DELETED_CELLS="true" /></TableSchema>' \

"http://example.com:8000/users/schema"

/table/schema

DELETE

删除表

curl -vi -X DELETE \

-H "Accept: text/xml" \

"http://example.com:8000/users/schema"

/table/regions

GET

列出表的所有regions

curl -vi -X GET \

-H "Accept: text/xml" \

"http://example.com:8000/users/regions

7.4.4. Get

Endpoint

HTTP Verb

说明

示例

/table/row/column:qualifier/timestamp

GET

取指定表指定列族下指定列的指定时间戳的值,返回的值为经过base64编码的,因此使用时需要做base64解码

curl -vi -X GET \

-H "Accept: text/xml" \

"http://example.com:8000/users/row1"

curl -vi -X GET \

-H "Accept: text/xml" \

"http://example.com:8000/users/row1/cf:a/1458586888395"

/table/row/column:qualifier

GET

取指定表的指定列族下指定列的值

curl -vi -X GET \

-H "Accept: text/xml" \

"http://example.com:8000/users/row1/cf:a"

curl -vi -X GET \

-H "Accept: text/xml" \

"http://example.com:8000/users/row1/cf:a/"

/table/row/column:qualifier/?v=number_of_versions

GET

取指定表的指定列族下指定列的指定版本值

curl -vi -X GET \

-H "Accept: text/xml" \

"http://example.com:8000/users/row1/cf:a?v=2"

7.4.5. Scan

Endpoint

HTTP Verb

说明

示例

/table/scanner/

PUT

创建一个scanner

curl -vi -X PUT \

-H "Accept: text/xml" \

-H "Content-Type: text/xml" \

-d '<Scanner batch="1"/>' \

"http://example.com:8000/users/scanner/"

/table/scanner/

PUT

带Filter创建一个scanner,过滤器可以写在一个文本文件中,格式如:

<Scanner batch="100">

<filter>

{

"type": "PrefixFilter",

"value": "u123"

}

</filter>

</Scanner>

curl -vi -X PUT \

-H "Accept: text/xml" \

-H "Content-Type:text/xml" \

-d @filter.txt \

"http://example.com:8000/users/scanner/"

/table/scanner/scanner-id

GET

取下一批数据,如果已无数据,则返回的HTTP代码为204

curl -vi -X GET \

-H "Accept: text/xml" \

"http://example.com:8000/users/scanner/145869072824375522207"

table/scanner/scanner-id

DELETE

删除指定的scanner,释放资源

curl -vi -X DELETE \

-H "Accept: text/xml" \

"http://example.com:8000/users/scanner/145869072824375522207"

7.4.6. Put

Endpoint

HTTP Verb

说明

示例

/table/row_key

PUT

往指定表写一行数据,注意行键、列族、列名和列值都必须采用base64编码

curl -vi -X PUT \

-H "Accept: text/xml" \

-H "Content-Type: text/xml" \

-d '<?xml version="1.0" encoding="UTF-8" standalone="yes"?><CellSet><Row key="cm93NQo="><Cell column="Y2Y6ZQo=">dmFsdWU1Cg==</Cell></Row></CellSet>' \

"http://example.com:8000/users/fakerow"

curl -vi -X PUT \

-H "Accept: text/json" \

-H "Content-Type: text/json" \

-d '{"Row":[{"key":"cm93NQo=", "Cell": [{"column":"Y2Y6ZQo=", "$":"dmFsdWU1Cg=="}]}]}'' \

"example.com:8000/users/fakerow"

8. 基本HBase命令

通过执行“hbase shell”进入命令行操作界面。详细请浏览官方文档:quickstart.html

# 查看有哪些表

hbase(main):003:0> list

hbase(main):003:0> create 'test', 'cf'  # 创建表test,一个列族cf

0 row(s) in 1.2200 seconds

hbase(main):003:0> list 'test'

# 只看指定namespace下的表

list_namespace_tables 'default'

hbase(main):003:0> desc 'test'  # 查看表状态

1 row(s) in 0.0550 seconds

hbase(main):004:0> put 'test', 'row1', 'cf:a', 'value1'  # 往表test的cf列族的a字段插入值value1

0 row(s) in 0.0560 seconds

hbase(main):005:0> put 'test', 'row2', 'cf:b', 'value2'

0 row(s) in 0.0370 seconds

hbase(main):006:0> put 'test', 'row3', 'cf:c', 'value3'

0 row(s) in 0.0450 seconds

hbase(main):007:0> scan 'test'  # 扫描表test

ROW        COLUMN+CELL

row1       column=cf:a, timestamp=1288380727188, value=value1

row2       column=cf:b, timestamp=1288380738440, value=value2

row3       column=cf:c, timestamp=1288380747365, value=value3

3 row(s) in 0.0590 seconds

# 带条件scan

hbase(main):007:0> scan 'test',{LIMIT=>1}

hbase(main):007:0> scan 'test',{LIMIT=>1,STARTROW=>'0000'}

hbase(main):008:0> get 'test', 'row1'  # 从表test取一行数据

COLUMN      CELL

cf:a        timestamp=1288380727188, value=value1

1 row(s) in 0.0400 seconds

# 取某列的数据

get 'test', 'row1', 'cf1:col1'

# 或者

get 'test', 'row1', {COLUMN=>'cf1:col1'}

 

语法:

get <table>,<rowkey>,[<family:column>,....]

scan <table>, {COLUMNS => [ <family:column>,.... ], LIMIT => num}

示例(在执行drop删除一个表之前,需先使用disable禁止该表):

scan 'ns1:t1', {COLUMNS => ['c1', 'c2'], LIMIT => 10, STARTROW => 20180906}

hbase(main):012:0> disable 'test'

0 row(s) in 1.0930 seconds

hbase(main):013:0> drop 'test'

0 row(s) in 0.0770 seconds

# 清空一个表

truncate 'test'

# 查表行数用法1

count ‘test’

# 查表行数用法2

count 'test',{INTERVAL=>10000}

# 删除行中的某个列值

delete 't1','row1','cf1:col1'

# 删除整行

deleteall 't1','row1'

# 退出hbase shell

hbase(main):014:0> exit

 

# 预分区1:命令行指定EndKey

create 'mytable','cf1',SPLITS=>['EndKey1','EndKey2','EndKey3']

# 预分区2:文件指定EndKey(mytable.splits文件每行一个EndKey)

create 'mytable','cf1',SPLITS_FILE=>'mytable.splits'

# 对例族做Snappy压缩

create 'mytable',{NAME=>'cf1',COMPRESSION=>'SNAPPY'},SPLITS=>['EndKey1','EndKey2','EndKey3']

# 分割策略分区

create 'mytable','cf1',{NUMREGIONS=>7,SPLITALGO=>'HexStringSplit'}

查表行数第二种方法(非HBase shell命令,下列的test为表名):

bin/hbase org.apache.hadoop.hbase.mapreduce.RowCounter 'test'

9. 常用HBase命令

1) 查看命令的用法

hbase(main):007:0> help "count"  # 查看count命令的用法

2) 名字空间相关命令

hbase(main):007:0> create_namespace 'mynamespace'  # 创建名字空间

hbase(main):007:0> delete_namespace 'mynamespace'  # 删除名字空间

hbase(main):007:0> list_namespace  # 列出名字空间

3) 别名方式

test=get_table "test"  # 后续可以对象方式操作表"test"

test.count  # 统计表行数

test.scan  # 扫描整张表

test.scan LIMIT=>1  # 有限扫描

t.scan LIMIT=>1,STARTROW=>"0"  # 带条件有限扫描

4) import

以下命令均直接在HBase shell中运行,包括“import”部分:

import org.apache.hadoop.hbase.filter.SingleColumnValueFilter

import org.apache.hadoop.hbase.filter.CompareFilter

import org.apache.hadoop.hbase.util.Bytes

# 包含所有列

scan 'test',{STARTROW =>'2016081100AA1600011516', STOPROW =>'2016081124ZZ1600011516',LIMIT=>2, FILTER=>SingleColumnValueFilter.new(Bytes.toBytes('cf1'),Bytes.toBytes('id'),CompareFilter::CompareOp.valueOf('EQUAL'),Bytes.toBytes('1299840901201608111600011516'))}

# 不包含过滤的列的其它所有列

import org.apache.hadoop.hbase.filter.SingleColumnValueExcludeFilter

scan 'test',{STARTROW =>'2016081100AA1600011516', STOPROW =>'2016081124ZZ1600011516',LIMIT=>2, FILTER=>SingleColumnValueExcludeFilter.new(Bytes.toBytes('cf1'),Bytes.toBytes('id'),CompareFilter::CompareOp.valueOf('EQUAL'),Bytes.toBytes('1299840901201608111600011516'))}

# 预分区建表(splits是针对整个表的,而非某列族,因此独立的{})

create 'test',{NAME => 'cf1', VERSIONS => 1},{SPLITS_FILE => 'splits.txt'}

10. 备HMaster

备HMaster可以有0到多个,配置和主HMaster完全相同,所以只需要复制一份已配置好的HMaster过去即可,然后同样的命令启动。启动好后,一样可以执行HBase shell命令。

11. 访问控制配置

11.1. 修改配置

为启用HBase的访问控制,需在hbase-site.xml文件中增加如下两个配置项:

<property>

<name>hbase.coprocessor.master.classes</name>

<value>org.apache.hadoop.hbase.security.access.AccessController</value>

</property>

<property>

<name>hbase.coprocessor.region.classes</name>

<value>

org.apache.hadoop.hbase.security.token.TokenProvider,org.apache.hadoop.hbase.security.access.AccessController

</value>

</property>

11.2. 权限管理

可以通过HBase shell进行权限管理,可以控制表(Table)和列族(Column Family)两个级别的权限,superuser为超级用户:

11.2.1. 授权权限

grant <user> <permissions> <table> [ <column family> [ <column qualifier> ] ]

permissions取值为0或字母R、W、C和A的组合(R:read,W:write,C:create,A:admin)。

11.2.2. 收回权限

revoke <user> <table> [ <column family> [ <column qualifier> ] ]

11.2.3. 更改权限

alter 'tablename', {OWNER => 'username'}

11.2.4. 查看权限

查看用户有哪些权限:user_permission <table>。

12. HBase Web

12.1. Master Web

12.2. Region Web

查看Region的MemStore和StoreFile信息,可观察到当MemStore的大小达到128M时即会Flush出新的StoreFile文件(以下test为表名,包含一个列族cf1):

http://192.168.1.31:8080/region.jsp?name=72d8e0fec34a847d6e8c6ad62e6ec154

Region: test,196401049269744,1506394586723.72d8e0fec34a847d6e8c6ad62e6ec154.

Column Family: cf1

Memstore size (MB): 48

Store Files

4 StoreFile(s) in set.

Store File Size (MB) Modification time

hdfs://hadoop/hbase/data/default/test/72d8e0fec34a847d6e8c6ad62e6ec154/cf1/1d0a9744d1084de7b87629bad9459ac9 1041 Tue Sep 26 10:59:17 CST 2017

hdfs://hadoop/hbase/data/default/test/72d8e0fec34a847d6e8c6ad62e6ec154/cf1/56ab5f353fe94c15b183d4cf0880772a 206 Tue Sep 26 10:59:44 CST 2017

hdfs://hadoop/hbase/data/default/test/72d8e0fec34a847d6e8c6ad62e6ec154/cf1/a1b48379e66846a8b15bf42e830e0711 68 Tue Sep 26 10:59:52 CST 2017

hdfs://hadoop/hbase/data/default/test/72d8e0fec34a847d6e8c6ad62e6ec154/cf1/69595130c92c439ca939f366bcd2a843 68 Tue Sep 26 11:00:02 CST 2017

13. 运维操作

13.1. 优雅重启RegionServer

使用命令graceful_stop.sh,格式为:

graceful_stop.sh --restart --reload --debug regionserver_hostname

原理为先move该RegionServer上所有的Region到其它RegionServer,然后再stop/restart该RegionServer。注意,该命令会关闭balancer,完成后再打开balancer:

Valid region move targets:

hadoop-095,16020,1505315231353

hadoop-092,16020,1505315376659

hadoop-094,16020,1505389352958

hadoop-096,16020,1505459565691

[main] region_mover: Moving 60 region(s) from hadoop-091,16020,1505315285824 on 4 servers using 1 threads.

thread-pool.rb:28] region_mover: Moving region ... (1 of 60) to ... for ...

thread-pool.rb:28] region_mover: Moving region ... from ... to ...

thread-pool.rb:28] region_mover: Moved region ... cost: 0.646

Reloaded hadoop-091 region(s)

Restoring balancer state to true

13.2. region均衡

让HMaster自动均衡和RegionServer间的Region数量命令(在HBase shell中执行,false为关闭):

hbase(main):042:0> help "balance_switch"

Enable/Disable balancer. Returns previous balancer state.

Examples:

hbase> balance_switch true

hbase> balance_switch false

当重启一个RegionServer后,会关闭balancer,命令“balance_switch true”返回上一次balance的状态(true或false)。

13.3. 分拆Region

当一个Region的大小超过hbase.hregion.max.filesize值(默认为10GB)时,该Region会被自动分拆(Split)成两个Region。

也可以主动分拆Region,主动分拆Region最简单的方式是利用HBase web提供的Split功能,只需要输入被分拆的Region Key即可,如要拆分名为“test,03333333,1467613810867.38b8ef87bbf2f1715998911aafc8c7b3.”的Region,只需要输入:test,03333333,1467613810867,然后点Split即可。

38b8ef87bbf2f1715998911aafc8c7b3为Region的ENCODED名,是一个MD5值,即md5(test,03333333,1467613810867)的结果。

在hbase shell中操作为:split 'regionName', 'splitKey'。进入HBase shell,直接执行split可以得到使用帮助:

hbase(main):041:0> help "split"

Split entire table or pass a region to split individual region.  With the

second parameter, you can specify an explicit split key for the region.

Examples:

split 'TABLENAME'

split 'REGIONNAME'

split 'ENCODED_REGIONNAME'

split 'TABLENAME', 'splitKey'

split 'REGIONNAME', 'splitKey'

split 'ENCODED_REGIONNAME', 'splitKey'

13.4. 合并Region

预分Region时,可能会产生一些过小或空的Region,这个时候可以考虑合并空的和过小的Region,HBase shell内置了合并region命令merge_region。

HBase shell通过调用lib/ruby目录下的ruby脚本来完成许多命令,这些命令的脚本全用ruby编码,均位于lib/ruby/shell/commands目录下。不能直接运行lib/ruby/shell/commands目录下的ruby脚本,它们只是各种功能的ruby模块,需进入hbase shell环境后运行,文件名即为命令名,不带参数运行,可以得到用法,如:

hbase(main):039:0> help "merge_region"

Merge two regions. Passing 'true' as the optional third parameter will force

a merge ('force' merges regardless else merge will fail unless passed

adjacent regions. 'force' is for expert use only).

You can pass the encoded region name or the full region name.  The encoded

region name is the hash suffix on region names: e.g. if the region name were

TestTable,0094429456,1289497600452.527db22f95c8a9e0116f0cc13c680396. then

the encoded region name portion is 527db22f95c8a9e0116f0cc13c680396

Examples:

hbase> merge_region 'FULL_REGIONNAME', 'FULL_REGIONNAME'

hbase> merge_region 'FULL_REGIONNAME', 'FULL_REGIONNAME', true

hbase> merge_region 'ENCODED_REGIONNAME', 'ENCODED_REGIONNAME'

hbase> merge_region 'ENCODED_REGIONNAME', 'ENCODED_REGIONNAME', true

实际上,编码的Region名ENCODED_REGIONNAME是一个MD5值。在线合并示例:

hbase(main):003:0> merge_region '000d96eef8380430d650c6936b9cef7d','b27a07c88dbbc070f716ee87fab15106'

0 row(s) in 0.0730 seconds

13.5. 查看指定Region的数据

hbase hfile -p -f /hbase/data/default/test/045ed11a1fdcd8bfa621f1160788a124/cf1/2502aeb799b84dda8340cdf4ad59e1f8

test是表名,045ed11a1fdcd8bfa621f1160788a124是Region name,2502aeb799b84dda8340cdf4ad59e1f8是hfile文件

运行输出示例:

K: 471200000000798496948594841700001313/cf1:c1/1493957134206/Put/vlen=28/seqid=0 V: 1214271401201503056013176259

K: 471200000000798496948594841700001313/cf1:c2/1493957134206/Put/vlen=4/seqid=0 V: 110

K: 471200000000798496948594841700001313/cf1:c3/1493957134206/Put/vlen=3/seqid=0 V: ABC

K: 471200000000798496948594841700001313/cf1:c4/1493957134206/Put/vlen=12/seqid=0 V: 16.12.57.1

K: 471200000000798496948594841700001313/cf1:c5/1493957134206/Put/vlen=28/seqid=0 V: 1214271401201503051700001313

K: 471200000000798496948594841700001313/cf1:c6/1493957134206/Put/vlen=0/seqid=0 V:

K: 471200000000798496948594841700001313/cf1:c7/1493957134206/Put/vlen=19/seqid=0 V: 2015-09-05 12:05:15

K: 471200000000798496948594841700001313/cf1:c8/1493957134206/Put/vlen=3/seqid=0 V: bko

13.6. 如何迁移Region?

当一个表的region在各RegionServer间分配不均的时候,可以做迁移,方法为进入hbase的命令行界面,执行move命令迁移。

move命令的格式为:

move '被迁region的ENCODED值','目标RegionServer全名'

示例:

move 'bd118dd803bb4c8f8e28ea87ebec8335','hadoop-391,16020,1499860514933'

在HMaster和RegionServer的Web界面均可看到RegionServer的全名。

13.7. 如何查看Region大小?

使用hdfs命令,比如查看mytable这张表各region的大小,执行命令:

hdfs dfs -du hdfs:///hbase/data/default/mytable

即可看到各region大小,其中第一列为region的大小:

306      hdfs:///hbase/data/default/mytable/.tabledesc

0        hdfs:///hbase/data/default/mytable/.tmp

2866280  hdfs:///hbase/data/default/mytable/023b0259adb715e3b4f6abecc1073ef3

2846541  hdfs:///hbase/data/default/mytable/2d2b9c6497e94a1f5227e9e4d26c4dc3

2911682  hdfs:///hbase/data/default/mytable/46e92458ce457ae69650013ca12e2415

2846062  hdfs:///hbase/data/default/mytable/6c1e8b29a5fc941434343dce11648e01

2846135  hdfs:///hbase/data/default/mytable/6c86670d1d3a2b23d9eee836efb959ca

2875079  hdfs:///hbase/data/default/mytable/7ee492fbc245a34a075e961f75e20f85

2846527  hdfs:///hbase/data/default/mytable/8b41e528bd529b123c9ce8d66816a21b

2846194  hdfs:///hbase/data/default/mytable/913f32ee373d382be3062562b87367fe

2846291  hdfs:///hbase/data/default/mytable/b9a1ef3d48f3fa45637473ae82d258c1

2912207  hdfs:///hbase/data/default/mytable/b9f3d37ce1c7a73035a517decde7ffec

2846121  hdfs:///hbase/data/default/mytable/bd118dd803bb4c8f8e28ea87ebec8335

2912197  hdfs:///hbase/data/default/mytable/c2c25cdc9376377c96b9d45768c7d793

2846253  hdfs:///hbase/data/default/mytable/c9e1362c88aeae241a5737989d2c8bf8

2911869  hdfs:///hbase/data/default/mytable/cf4f2bda053820b56db112929e077b74

2913065  hdfs:///hbase/data/default/mytable/e6ed2d434d3e0b8b59f859fdcb615a80

2912094  hdfs:///hbase/data/default/mytable/fec9c2376b0c3466c6f872aef3c3177d

13.8. WAL工具

HBase WAL类似于MySQL的binlog,WAL工具位于库文件hbase-server-X.Y.Z.jar中,导出和分拆WAL,执行方式:

$ hbase org.apache.hadoop.hbase.regionserver.wal.FSHLog

Usage: FSHLog <ARGS>

Arguments:

--dump  Dump textual representation of passed one or more files

For example: FSHLog --dump hdfs://example.com:9000/hbase/.logs/MACHINE/LOGFILE

--split Split the passed directory of WAL logs

For example: FSHLog --split hdfs://example.com:9000/hbase/.logs/DIR

示例:

$ hbase org.apache.hadoop.hbase.regionserver.wal.FSHLog --dump hdfs:///hbase/WALs/hadoop-203,16020,1493809707539/hadoop-203%2C16020%2C1493809707539.1506389208593

Writer Classes: ProtobufLogWriter

Cell Codec Class: org.apache.hadoop.hbase.regionserver.wal.WALCellCodec

Sequence=117 , region=f9c1b75be5fcb024a9cf74c47affb52e at write timestamp=Tue Sep 26 09:32:34 CST 2017

row=g-FMZffo5E36_sJCNx2BS4jJorpo-616451068748770146, column=cf1:js

row=g-FMZffo5E36_sJCNx2BS4jJorpo-616451068748770146, column=cf1:lsud

row=g-FMZffo5E36_sJCNx2BS4jJorpo-616451068748770146, column=cf1:at

row=g-FMZffo5E36_sJCNx2BS4jJorpo-616451068748770146, column=cf1:rat

Sequence=118 , region=f9c1b75be5fcb024a9cf74c47affb52e at write timestamp=Tue Sep 26 09:32:44 CST 2017

row=g-FMZffo5E36_sJCNx2BS4jJorpo-616451068748770160, column=cf1:js

row=g-FMZffo5E36_sJCNx2BS4jJorpo-616451068748770160, column=cf1:lsud

row=g-FMZffo5E36_sJCNx2BS4jJorpo-616451068748770160, column=cf1:at

row=g-FMZffo5E36_sJCNx2BS4jJorpo-616451068748770160, column=cf1:rat

Sequence=119 , region=f9c1b75be5fcb024a9cf74c47affb52e at write timestamp=Tue Sep 26 09:32:51 CST 2017

row=g-FMZffo5E36_sJCNx2BS4jJorpo-616451068748767888, column=cf1:js

row=g-FMZffo5E36_sJCNx2BS4jJorpo-616451068748767888, column=cf1:lsud

row=g-FMZffo5E36_sJCNx2BS4jJorpo-616451068748767888, column=cf1:at

row=g-FMZffo5E36_sJCNx2BS4jJorpo-616451068748767888, column=cf1:rat

13.9. Compact和Split

如果同时做Split和Compact,建议先Compact后Split。Compact的目的是将一个Region下的所有StoreFile合并成一个StoreFile文件。

之后再对超过指定大小的Region进行Split操作,可修改参数hbase.hstore.compactionThreshold减少Compact频率,通过设置较大的hbase.hregion.majorcompaction降低Major Compact频率。

Major Compact操作方式:

hbase(main):001:0> major_compact

ERROR: wrong number of arguments (0 for 1)

Here is some help for this command:

Run major compaction on passed table or pass a region row

to major compact an individual region. To compact a single

column family within a region specify the region name

followed by the column family name.

Examples:

Compact all regions in a table:

hbase> major_compact 't1'

hbase> major_compact 'ns1:t1'

Compact an entire region:

hbase> major_compact 'r1'

Compact a single column family within a region:

hbase> major_compact 'r1', 'c1'

Compact a single column family within a table:

hbase> major_compact 't1', 'c1'

1) 示例1:合并表ID为a6e65f0540bfcd1cb2740bb4b033d134的Region的列族cf2

hbase(main):003:0> major_compact 'a6e65f0540bfcd1cb2740bb4b033d134','cf2'

0 row(s) in 0.1990 seconds

13.10. 是否可直接kill掉RegionServer进程?

如果直接kill掉RegionServer进程,而不是通过graceful_stop.sh优雅退出,则只有经历zookeeper.session.timeout指定的毫秒时间后,HMaster才会将该RegionServer上的Region迁移至其它的RegionServer上。

可以简单理解zookeeper.session.timeout为RegionServer和HMaster间的心跳超时时间,但实际上两者并不直接联系,而是通过ZooKeeper节点方式HMaster感知RegionServer超时。

实际上kill掉后立即重新启动RegionServer,也是可以的。

13.11. 下线RegionServer

在需要下线的RegionServer上执行graceful_stop.sh,停止RegionServer。在下线时,HBase会关闭Load Balance,因此在下线完成后需要进入HBase shell执行下:balance_switch true。

13.12. RowKey和RegionServer不一致问题

如果出现ROWKEY和RegionServer不一致,可以使用“hbase hbck -repair”进行修复,如果有空洞,使用“hbase hbck -repairHoles”。

13.13. 快照迁移数据

快照方式支持跨版本迁移数据,比如源HBase集群版本为“Hadoop-2.7.3 + HBase-1.2.6”,目标HBase集群版本为“Hadoop-3.1.2 + HBase-2.2.1”。

以将HBase表test从集群192.168.31.30迁移到192.168.32.30为例。数据迁移除了采用快照方式下,还可以使用HBase层面的copyTable和export/import,以及HDFS层面的distcp。其中,export/import和copyTable两种支持指定时间范围的部分复制。

不带参数执行,可得到相应的帮助,如:

hbase org.apache.hadoop.hbase.mapreduce.Export

hbase org.apache.hadoop.hbase.mapreduce.Import

hbase org.apache.hadoop.hbase.mapreduce.CopyTable

hadoop distcp

13.13.1. 创建快照

这一步在源集群HBase shell中完成,其中“test”为表名,“test.snapshot”为快照名。

snapshot 'test','test.snapshot'

13.13.2. 迁移快照文件

这一步直接在Linux shell中操作,可在目标集群机器上操作,也可在源集群机器上操作,建议在目标集群上实施,迁移实际是一个MR过程(只有Map,没有Reduce)。执行时,注意通过参数bandwidth控制好流量,迁移时流量会很大。

hbase org.apache.hadoop.hbase.snapshot.ExportSnapshot -snapshot test.snapshot  -copy-from hdfs://192.168.31.30/hbase -copy-to hdfs://192.168.32.30/hbase -mappers 10 -bandwidth 50

注意一定要设置bandwidth参数,以控制迁移时的流量,通常流量会很大的,能够吃满万兆网卡,如果不加以控制。还可指定迁移后文件在目标集群中的Owner:

hbase org.apache.hadoop.hbase.snapshot.ExportSnapshot -overwrite -snapshot test.snapshot -copy-from hdfs://192.168.31.30/hbase -copy-to hdfs://192.168.32.30/hbase -mappers 10 -bandwidth 30 -chuser hbase -chgroup supergroup

另外,还可以加上参数“-overwrite”:

hbase org.apache.hadoop.hbase.snapshot.ExportSnapshot -overwrite -snapshot test.snapshot  -copy-from hdfs://192.168.31.30/hbase -copy-to hdfs://192.168.32.30/hbase -mappers 10 -bandwidth 50

在迁移过程中,如果遇到错误“Can't find hfile”,则应当将hbase.master.hfilecleaner.ttl的值调大,至少要比迁移时长大的值。

如果执行ExportSnapshot时报错“Operation category READ is not supported in state standby”,表示ExportSnapshot的参数“-copy-to”指向了备NameNode,改成指向主NameNode后再执行。

13.13.3. 恢复快照

根据快照名恢复快照,这一步在目标集群HBase shell中完成。

restore_snapshot ‘test.snapshot’

使用restore_snapshot的前提是表已被disable,否则需改用bulkload方式恢复快照。

hbase \

org.apache.hadoop.hbase.mapreduce.LoadIncrementalHFiles \

-Dhbase.mapreduce.bulkload.max.hfiles.perRegion.perFamily=1024 \

hdfs://192.168.31.30/hbase/archive/datapath/tablename/filename \

tablename

参数hbase.mapreduce.bulkload.max.hfiles.perRegion.perFamily指定在Load过程中每个Region下每个列族的hfile文件数上限,默认为32。

BulkLoad是一个个文件逐个导入,所以处理起来要麻烦许多。BulkLoad时,可以考虑设置hbase.client.bulk.load.validate.hfile.format值为false来加快Load效率。

13.13.4. 删除快照

delete_snapshot ‘test.snapshot’

13.13.5. 查看快照列表

list_snapshots

附1:元数据

HBase在zookeeper上的目录结构:

[zk: localhost:2181(CONNECTED) 0] ls /hbase

[backup-masters, draining, flush-table-proc, hbaseid, master, master-maintenance, meta-region-server, namespace, online-snapshot, replication, rs, running, splitWAL, switch, table, table-lock]

从0.96版本开始root-region-server被meta-region-server替代,原来的root被删除了,新的meta像原来的root一样,只有一个Region,不再会有多个Region。

从0.96版本开始引入了namespace,删除了-ROOT-表,之前的.META.表被hbase:meta表替代,其中hbase为namespace名。namespace可以认为类似于MySQL中的DB名,用于对表进行逻辑分组管理。

客户端对hbase提供DML操作不需要访问master,但DDL操作依赖master,在hbase shell中的list也依赖于master。

在主hbase master的web上,可以看到有三个系统表:hbase:meta、hbase:namespace和hbase:acl(如果没开启ACL,则无此表),注意hbase:namespace和hbase:acl的元数据也存储在hbase:meta中,这可以通过在hbase shell中执行scan 'hbase:meta'观察到。

hbase(main):015:0* scan 'hbase:meta',{LIMIT=>10}

hbase:acl,,1460426731436.0bbdf170c309223c0ce830 column=info:regioninfo, timestamp=1460426830411, value={ENCODED => 0bbdf170c309223c0ce830facdff9edd, NAME => 'hbase:acl,,1460426731436.0bbdf

facdff9edd.                                     170c309223c0ce830facdff9edd.', STARTKEY => '', ENDKEY => ''}

hbase:acl,,1460426731436.0bbdf170c309223c0ce830 column=info:seqnumDuringOpen, timestamp=1461653766642, value=\x00\x00\x00\x00\x00\x00\x002

facdff9edd.

hbase:acl,,1460426731436.0bbdf170c309223c0ce830 column=info:server, timestamp=1461653766642, value=hadoop-034:16020

facdff9edd.

hbase:acl,,1460426731436.0bbdf170c309223c0ce830 column=info:serverstartcode, timestamp=1461653766642, value=1461653610096

第一列,即红色串为Region name;serverstartcode为Regsion server加载region的时间;server为Region server的IP和端口;regioninfo结构为:

1) ENCODED 为Region name的MD5值

2) NAME 为Region name

3) STARTKEY 为空表示为第一个Region

4) ENDKEY 如果也为空,则表示该表只有一个Region。

附2:基本概念

1)HBase和HDFS

HBase的表数据存储在HDFS上,假设有一HBase表test,它的namespace为abc(默认的namespace名为default),则该表的HDFS路径为:hdfs:///hbase/data/abc/test,表名目录之下为各Regions的子目录,每个Region均一个独立的子目录,如:

$ hdfs dfs -ls hdfs:///hbase/data/abc/test/

Found 7 items

drwxr-xr-x   - hadoop supergroup        0 2017-07-19 17:45 hdfs:///hbase/data/abc/test/.tabledesc

drwxr-xr-x   - hadoop supergroup        0 2017-07-19 17:45 hdfs:///hbase/data/abc/test/.tmp

drwxr-xr-x   - hadoop supergroup        0 2019-05-30 16:07 hdfs:///hbase/data/abc/test/37b03ca897147840c3676bb7d622af2f

drwxr-xr-x   - hadoop supergroup        0 2019-05-30 16:07 hdfs:///hbase/data/abc/test/8e52bcdc2b1292fabf6bc8ea8e8be8ba

drwxr-xr-x   - hadoop supergroup        0 2019-09-07 09:36 hdfs:///hbase/data/abc/test/ba6fa3def428d0d5e53a17d30c5fa7de

drwxr-xr-x   - hadoop supergroup        0 2019-09-07 09:36 hdfs:///hbase/data/abc/test/cdf6d4ff4dc0b6cf1c23e1db133dbfe1

drwxr-xr-x   - hadoop supergroup        0 2018-04-17 23:05 hdfs:///hbase/data/abc/test/fb3b4847d6cf504aea3990859e2b8092

在Region目录下,为各列族的子目录,每个列族均一个独立的子目录:

$ hdfs dfs -ls hdfs:///hbase/data/abc/test/fb3b4847d6cf504aea3990859e2b8092

Found 4 items

-rw-r--r--  3 hadoop supergroup     99 2018-04-17 23:05 hdfs:///hbase/data/abc/test/fb3b4847d6cf504aea3990859e2b8092/.regioninfo

drwxr-xr-x  - hadoop supergroup     0 2018-04-17 23:06 hdfs:///hbase/data/abc/test/fb3b4847d6cf504aea3990859e2b8092/.tmp

drwxr-xr-x  - hadoop supergroup     0 2018-04-17 23:06 hdfs:///hbase/data/abc/test/fb3b4847d6cf504aea3990859e2b8092/cf1

drwxr-xr-x  - hadoop supergroup    0 2019-10-15 10:56 hdfs:///hbase/data/abc/test/fb3b4847d6cf504aea3990859e2b8092/recovered.edits

从上不难发现,可很方便的查看一个表的大小或者Region的大小,只需使用命令“hdfs dfs -du”即可,比如:

$ hdfs dfs -du -h hdfs:///hbase/data/abc/

4.7 G    hdfs:///hbase/data/abc/test

$ hdfs dfs -du -h hdfs:///hbase/data/abc/test

287       hdfs:///hbase/data/abc/test/.tabledesc

0         hdfs:///hbase/data/abc/test/.tmp

167.1 M   hdfs:///hbase/data/abc/test/37b03ca897147840c3676bb7d622af2f

137.3 M   hdfs:///hbase/data/abc/test/8e52bcdc2b1292fabf6bc8ea8e8be8ba

2.6 G     hdfs:///hbase/data/abc/test/ba6fa3def428d0d5e53a17d30c5fa7de

870.1 M   hdfs:///hbase/data/abc/test/cdf6d4ff4dc0b6cf1c23e1db133dbfe1

1000.0 M  hdfs:///hbase/data/abc/test/fb3b4847d6cf504aea3990859e2b8092

2)Region&MemStore&StoreFile

HBase的负载均衡单位为Region,RegionServer负责操作Region,如加载Region到内存,提供读写、分拆和合并等。一个Region同一时刻只会被一个RegionServer操作,可以通过move命令在不同RegionServer间迁移。

一个Region由一个或多个Store组成,每个Store存储一个列族(Column Family)。每个Store又由一个MemStore和0或多个StoreFile组成,其中StoreFile存储在HDFS上(即HFile文件),MemStore存储在内存中(可通过WAL日志文件重放恢复MemStore)。

MemStoreFlush到HDFS即生成新的StoreFile,当StoreFile达到一定数量时触发合并(Compact),Major Compact将所有的StoreFile合并成一个StoreFile文件。

如果没有开启WAL日志(Write Ahead Log,类似于MySQL的binlog),则在MemSotre被Flush之前发生故障,会丢失MemStore部分数据。

Major Compact的作用是将一个Region同一列族下的所有StoreFile合并成一个大的StoreFile。不同列族对应不同StoreFile文件,如果只有一个列族则合并后只有一个StoreFile,如果有两个列族则合并后有两个StoreFile,依次类推。

3)StoreFile文件

可通过RegionServer的Web查看,如:

http://192.168.1.31:8080/region.jsp?name=78d2bddb0fdc2c735c79da68658f3011

假设Hadoop集群名为hadoop,表名为test,Region ID为78d2bddb0fdc2c735c79da68658f3011则StoreFile文件路径可能类似如下:

hdfs://hadoop/hbase/data/default/test/78d2bddb0fdc2c735c79da68658f3011/cf1/4facea216b15471e9d6d85cf59bd9d8a

hdfs://hadoop/hbase/data/default/test/78d2bddb0fdc2c735c79da68658f3011/cf1/404aea6371cb4722af91a07c10a3fcf3

可通过“hdfs dfs -ls”取得StoreFile文件大小,如:

$ hdfs dfs -ls hdfs://hadoop/hbase/data/default/test/78d2bddb0fdc2c735c79da68658f3011/cf1/4facea216b15471e9d6d85cf59bd9d8a

-rw-r--r--   3 zhangsan supergroup 6283978864 2017-09-24 12:47 hdfs://hadoop/hbase/data/default/test/78d2bddb0fdc2c735c79da68658f3011/cf1/4facea216b15471e9d6d85cf59bd9d8a

4)Region name

Region name用来标识一个Region,它的格式为:表名,StartKey,随机生成的RegionID,如:

test,83--G40V6UdCnEHKSKqR_yjJo798594847946710200000795,1461323021820.d4cc7afbc2d6bf3843c121fedf4d696d.

上述test为表名,中间蓝色串为Startkey,最后红色部分为Region ID(注意包含了2个点号)。如果为第一个Region,则StartKey为空,比如变成这样:

t_user,,1461549916081.f4e17b0d99f2d77da44ccb184812c345.

3crontab监控脚本

使用这种方法,不需要在Master和Slaves节点间建立免密码登录关系,因为相关进程由crontab拉起,并不需要显示调用start-all.sh、start-dfs.sh、start-yarn.sh、start-hbase.sh等。

监控工具下载:

https://github.com/eyjian/libmooon/blob/master/shell/process_monitor.sh

监控工具使用示例:

PMONITOR=/usr/local/bin/process_monitor.sh

JAVA=/usr/local/jdk/bin/java

HBASE_DAEMON=/data/hbase/bin/hbase-daemon.sh

# 监控HBase Master(仅在 Master 上启动)

#* * * * * $PMONITOR "$JAVA -Dproc_master" "$HBASE_DAEMON start master"

# 监控HBase RegionServer(仅在 RegionServer 上启动)

#* * * * * $PMONITOR "$JAVA -Dproc_regionserver" "$HBASE_DAEMON start regionserver"

# 监控HBase ThriftServer2(一般和 RegionServer 共享相同机器)

#* * * * * $PMONITOR "$JAVA -Dproc_thrift2" "$HBASE_DAEMON start thrift2 --framed -threadedselector -s 10 -m 20 -w 20"

# 监控HBase RESTServer(一般和 RegionServer 共享相同机器)

#* * * * * $PMONITOR "$JAVA -Dproc_rest" "$HBASE_DAEMON start rest -p 8080"

4:批量操作工具

批量操作工具下载:

https://github.com/eyjian/libmooon/releases

其中,mooon_ssh为批量命令工具,mooon_upload为批量上传文件工具。

批量操作工具使用示例:

# 设置环境变量

export H='192.168.1.21,192.168.1.22,192.168.1.23,192.168.1.24,192.168.1.25,192.168.1.26'

export U=root

export P=password

export PORT=201810

# 上传/etc/hosts和/etc/profile到:192.168.31.12,192.168.31.13,192.168.31.14,192.168.31.15

mooon_upload -s=/etc/hosts,/etc/profile -d=/etc

# 检查/etc/profile文件是否一致

mooon_ssh -c='md5sum /etc/hosts'

5JVM基础知识

1)JPS命令

当执行jps命令时,如果看不到运行中的Java进程。假设用户名为test,则检查目录/tmp/hsperfdata_test的Owner和权限是否正确,如果权限不正确,则jps将看不到运行中的Java进程。

2)JVM内存

JVM内存由3部分组成:

作用

说明

新生代(Young)

存活时间较短,一般存储刚生成的一些对象

又分为一个伊甸园(Eden)区,和两个Survivor区,两个Survivor区总有一个是空的。对新生代的垃圾回收叫做Minor GC,特点是次数频繁,但每次回收时间较短。

对象在Survivor每经历一次Minor GC,年龄就增长1岁,默认增长到15岁时就晋升到Old代。

老年代(Tenured)

也叫旧生成(Old),存活时间较长,主要存储在应用程序中生命周期较长的对象

对象优先在Eden上分配,但大对象直接在Old上分配。对老年代的垃圾回收叫做MajorGC或Full GC,特点是次数相对少,每次回收时间较长。

永久代(Perm)

存储meta和class的信息,JDK8已删除永久代

永久代垃圾回收比较少,效率也比较低。因为在JDK8中已无永久代,所以JVM参数“-XX:PermSize”和 “-XX:MaxPermSize”已作废,代替的参数分别为“-XX:MetaspaceSiz”和“-XX:MaxMetaspaceSize”。

3)JVM GC(Garbage Collection,垃圾回收)

当Eden空间不足时,即触发Minor GC。Full GC的触发条件为:Old空间不足;Perm空间不足;统计得到的Minor GC晋升到Old的平均大小大于Old的剩余空间。

回收策略

 

 

Serial

串行收集器

串行单线程处理所有垃圾回收工作,适合小数据量的回收,使用“-XX:+UseSerialGC”打开。

Parrallel New Collector

并行收集器

Serial的多线程版本,并行多线程处理,使用“-XX:+UseParallelOldGC”打开,用“-XX:ParallelGCThreads=<N>”指定垃圾回收线程数。

CMS(Concurrent Mark Sweep)

并发收集器,响应时间优先回收器

并发多线程处理,使用“-XX:+UseConcMarkSweepGC”打开,只针对老年代。

4)并行和并发

并行

Parallel

多条垃圾收集线程并行工作,应用线程处于等待状态

并发

Concurrent

垃圾收集线程与应用线程一段时间内同时工作,不是并行而是交替执行

5)JVM的CMS垃圾回收

CMS(Concurrent Mark Sweep)是一个并发使用标记的GC,以牺牲CPU吞吐量为代价获得最短回收停顿时间的垃圾回收器。

CMS不对堆(Heap)进行整理和压缩,节约了垃圾回收停顿时间,但产生了空间碎片,增加了堆空间的浪费。

CMS虽然是老生代的GC,但仍然需要扫描新生代。

启用方式:JVM参数加上“XX:+UseConcMarkSweepGC”,这个参数表示对于老年代的回收采用CMS,CMS采用“标记—清除”算法。

CMS分成以下几个过程:

1) 初始标记(STW initial mark)

暂停JVM,官方的叫法STW(Stop The Word),这个过程虽然暂停了JVM,但很快完成。这个过程只标记GC ROOT可直接关联的对象,不包括间接关联的对象。

2) 并发标记(Concurrent marking)

无停顿,应用程序的线程和并发标记的线程并发执行,本过程标记所有可达对象,通过GC ROOT TRACING可达到的对象是活着的对象。

3) 并发预清理(Concurrent precleaning)

无停顿,这个过程也是并发的。

4) 重新标记(STW remark)

这个过程也会暂停JVM,重新扫描堆中的对象,标记活着的对象,包含子过程Rescan。

5) 并发清理(Concurrent sweeping)

无停顿,应用程序线程和收集器线程并发执行。

6) 并发重置(Concurrent reset)

无停顿,重置CMS收集器的数据结构,等待下一次垃圾回收。

6)JVM内存参数

执行命令“java -X”可看到相关参数的说明,不同版本的JDK默认值不一定相同,可执行命令“java -XX:+PrintFlagsFinal -version | grep HeapSize”查看默认值。

参数名

参数说明

示例

-Xms

初始Java堆大小,JVM启动时分配的内存

-Xms256m

-Xmx

最大Java堆大小,运行时可分配的最大内存

-Xmx2048m

-Xss

Java线程堆栈大小,每个线程分配的内存大小

-Xss128m

-XX:OnOutOfMemoryError

内存溢出时的动作

-XX:OnOutOfMemoryError='kill -9 %p'

-XX:+UseConcMarkSweepGC

设置并发垃圾收集器

-XX:+UseConcMarkSweepGC

-XX:+UseParallelGC

设置并行垃圾收集器,同时运行在多CPU上,独占式收集器(收集过程中进程暂停STW),不能与CMS收集器一起。使用这个参数,新生代为并行回收,老年代为串行回收。

-XX:+UseParallelGC

-XX:+UseSerialGC

设置串行垃圾收集器,也是独占式收集器。使用这个参数,新生代和老年代都为串行回收。

-XX:+UseSerialGC

-XX:+UseParNewGC

设置并发串行收集器,实际是串行垃圾回收器的多线程化,即串行垃圾回收器的多线程版本,也是独占式收集器。使用这个参数时,新生代为并行回收,老年代仍是串行回收。

-XX:+UseParNewGC

-XX:+UseParallelOldGC

新生代和老年代都使用并行收集器

-XX:+UseParallelOldGC

-XX:+UseConcMarkSweepGC

老年代回收器,停顿(STW)减少,但吞吐量会降低。

-XX:+UseConcMarkSweepGC

-XX:ParallelGCThreads

设置并行收集线程数

-XX:ParallelGCThreads=10

在Hadoop-3.1.2上安装HBase-2.2.1的更多相关文章

  1. Ubuntu 12.04上安装HBase并运行

    Ubuntu 12.04上安装HBase并运行 作者:凯鲁嘎吉 - 博客园 http://www.cnblogs.com/kailugaji/ 一.HBase的安装 在官网上下载HBase-1.1.2 ...

  2. 在Ubuntu上安装Hbase

    1.下载hbase2.0.5 解压缩并改名为hbase目录,放到/usr/local下(注意权限) sudo mv ~/hbase-2.0.5 /usr/local/hbase 2.修改目录所有者 / ...

  3. Hadoop 伪分布式上安装 HBase

    hbase下载:点此链接  (P.S.下载带bin的) 下载文件放入虚拟机文件夹,打开,放在自己指定的文件夹 -src.tar.gz -C /home/software/ 修改环境配置 gedit / ...

  4. 在haoodp-2.7.3 HA的基础上安装Hbase HA

    前提安装好hadoop基于QJM的高可用 node1 HMaster node2 HMaster.HRegionServer node3 HRegionServer node4 HRegionServ ...

  5. 在Hadoop伪分布式模式下安装Hbase

    安装环境:Hadoop 1.2.0, Java 1.7.0_21 1.下载/解压 在hbase官网上选择自己要下的hbase版本,我选择的是hbase-0.94.8. 下载后解压到/usr/local ...

  6. hadoop 2.6.0上安装sqoop-1.99.6-bin-hadoop200

    第一步:下载sqoop-1.99.6-bin-hadoop200.tar.gz  地址:http://www.eu.apache.org/dist/sqoop/1.99.6/ 第二步:将下载好的sqo ...

  7. 沉淀,再出发——在Hadoop集群之上安装hbase

    在Hadoop集群之上安装hbase 一.安装准备 首先我们确保在ubuntu16.04上安装了以下的产品,java1.8及其以上,ssh,hadoop集群,其次,我们需要从hbase的官网上下载并安 ...

  8. hadoop安装hbase

    1.安装hadoop hadoop安装请参考我的centoos 安装hadoop集群 在安装hadoop的基础上新增了两台slave机器,新增后的配置为 H30(192.168.3.238) mast ...

  9. CDH5上安装Hive,HBase,Impala,Spark等服务

    Apache Hadoop的服务的部署比較繁琐.须要手工编辑配置文件.下载依赖包等.Cloudera Manager以GUI的方式的管理CDH集群,提供向导式的安装步骤.因为须要对Hive,HBase ...

  10. 通过tarball形式安装HBASE Cluster(CDH5.0.2)——Hadoop NameNode HA 切换引起的Hbase错误,以及Hbase如何基于NameNode的HA进行配置

    通过tarball形式安装HBASE Cluster(CDH5.0.2)——Hadoop NameNode HA 切换引起的Hbase错误,以及Hbase如何基于NameNode的HA进行配置 配置H ...

随机推荐

  1. 在Mu-kittenbot中使用Robotbit固件

    首先,先下载安装支持robotbit扩展板的Mu: http://cdn.kittenbot.cn/mu/mu-kittenbot.exe 标准的3针插口,信号,正电,负电,可接市面的arduino模 ...

  2. 宽字符与Unicode (c语言 汉语字符串长度)

    在C语言中,我们使用char来定义字符,占用一个字节,最多只能表示128个字符,也就是ASCII码中的字符.计算机起源于美国,char 可以表示所有的英文字符,在以英语为母语的国家完全没有问题. 但是 ...

  3. java中的对象、类、包、模块、组件、容器、框架、架构的概念入门

    在Java中有那么一些概念:对象.类.包.模块.组件.容器.框架.这些概念都有一个共同的特点,就是[容纳]. 对象(Object) 在Java的世界里,对象是通过属性和方法来分别对应事务所具有的静态属 ...

  4. Problem 1059 老师的苦恼

    Bob写文章时喜欢将英文字母的大小写混用,例如Computer Science经常被他写成coMpUtEr scIeNce,这让他的英文老师十分苦恼,现在请你帮Bob的英文老师写一个程序能够将Bob的 ...

  5. .net core (领域事件,并发 for update) 工作内容记录

    这周工作,因为要对几个不同的表进行货币增加,锁定,所以 用了领域事件和并发 for update  ,先记录一下 领域事件 ,Dapper 事务 ,sql for update 这几个点 头大,最近工 ...

  6. 关于“关于C#装箱的疑问”帖子的个人看法 (原发布csdn 2017年10月07日 10:21:10)

    前言 昨天晚上闲着无事,就上csdn逛了一下,突然发现一个帖子很有意思,就点进去看了一下. 问题很精辟 int a = 1; object b=a; object c = b; c = 2; 为什么b ...

  7. laravel在使用Composer安装插件时要求输入授权用户名密码解决办法

    在使用laravel-china源时需要输入密码,坑,换源, 先换腾讯的不行,最后试一下阿里云的可以: composer config -g repo.packagist composer https ...

  8. 大数据除了Hadoop还有哪些常用的工具?

    大数据除了Hadoop还有哪些常用的工具? 1.Hadoop大数据生态平台Hadoop 是一个能够对大量数据进行分布式处理的软件框架.但是 Hadoop 是以一种可靠.高效.可伸缩的方式进行处理的.H ...

  9. FCC-学习笔记 DNA Pairing

    FCC-学习笔记  DNA Pairing 1>最近在学习和练习FCC的题目.这个真的比较的好,推荐给大家. 2>中文版的地址:https://www.freecodecamp.cn/;英 ...

  10. windows下使用ssh(利用paramiko库)

    环境:python3.7.3 win7 or win10 1.首先下载paramiko库 命令:pip install paramiko 2.代码: import paramiko 创建一个 ssh ...