第十章 hbase默认配置说明
hbase.rootdir:这个目录是region server的共享目录,用来持久化Hbase。URL需要是'完全正确'的,还要包含文件系统的scheme。例如,要表示hdfs中的 '/hbase'目录,namenode 运行在namenode.example.org的9090端口。则需要设置为hdfs://namenode.example.org:9000 /hbase。默认情况下Hbase是写到/tmp的。不改这个配置,数据会在重启的时候丢失。默认: file:///tmp/hbase-${user.name}/hbase
hbase.master.port:Hbase的Master的端口.默认: 60000
hbase.cluster.distributed:Hbase的运行模式。false是单机模式,true是分布式模式。若为false,Hbase和Zookeeper会运行在同一个JVM里面。默认: false
hbase.tmp.dir:本地文件系统的临时文件夹。可以修改到一个更为持久的目录上。(/tmp会在重启时清楚) 默认: /tmp/hbase-${user.name}
hbase.master.info.port:HBase Master web 界面端口. 设置为-1 意味着你不想让他运行。默认: 60010
hbase.master.info.bindAddress:HBase Master web 界面绑定的端口 默认: 0.0.0.0
hbase.client.write.buffer:HTable 客户端的写缓冲的默认大小。这个值越大,需要消耗的内存越大。因为缓冲在客户端和服务端都有实例,所以需要消耗客户端和服务端两个地方的内存。得到的好处 是,可以减少RPC的次数。可以这样估算服务器端被占用的内存: hbase.client.write.buffer * hbase.regionserver.handler.count 默认: 2097152
hbase.regionserver.port:HBase RegionServer绑定的端口 默认: 60020
hbase.regionserver.info.port:HBase RegionServer web 界面绑定的端口 设置为 -1 意味这你不想与运行 RegionServer 界面. 默认: 60030
hbase.regionserver.info.port.auto:Master或RegionServer是否要动态搜一个可以用的端口来绑定界面。当hbase.regionserver.info.port已经被占用的时候,可以搜一个空闲的端口绑定。这个功能在测试的时候很有用。默认关闭。 默认: false
hbase.regionserver.info.bindAddress:HBase RegionServer web 界面的IP地址 默认: 0.0.0.0
hbase.regionserver.class:RegionServer 使用的接口。客户端打开代理来连接region server的时候会使用到。 默认: org.apache.hadoop.hbase.ipc.HRegionInterface
hbase.client.pause:通常的客户端暂停时间。最多的用法是客户端在重试前的等待时间。比如失败的get操作和region查询操作等都很可能用到。默认: 1000
hbase.client.retries.number:最大重试次数。例如 region查询,Get操作,Update操作等等都可能发生错误,需要重试。这是最大重试错误的值。 默认: 10
hbase.client.scanner.caching:当 调用Scanner的next方法,而值又不在缓存里的时候,从服务端一次获取的行数。越大的值意味着Scanner会快一些,但是会占用更多的内存。当 缓冲被占满的时候,next方法调用会越来越慢。慢到一定程度,可能会导致超时。例如超过了 hbase.regionserver.lease.period。 默认: 1
hbase.client.keyvalue.maxsize:一 个KeyValue实例的最大size.这个是用来设置存储文件中的单个entry的大小上界。因为一个KeyValue是不能分割的,所以可以避免因为 数据过大导致region不可分割。明智的做法是把它设为可以被最大region size整除的数。如果设置为0或者更小,就会禁用这个检查。默认10MB。 默认: 10485760
hbase.regionserver.lease.period:客户端租用HRegion server 期限,即超时阀值。单位是毫秒。默认情况下,客户端必须在这个时间内发一条信息,否则视为死掉。默认: 60000
hbase.regionserver.handler.count:RegionServers受理的RPC Server实例数量。对于Master来说,这个属性是Master受理的handler数量 默认: 10
hbase.regionserver.msginterval:RegionServer 发消息给 Master 时间间隔,单位是毫秒 默认: 3000
hbase.regionserver.optionallogflushinterval:将Hlog同步到HDFS的间隔。如果Hlog没有积累到一定的数量,到了时间,也会触发同步。默认是1秒,单位毫秒。 默认: 1000
hbase.regionserver.regionSplitLimit:region的数量到了这个值后就不会在分裂了。这不是一个region数量的硬性限制。但是起到了一定指导性的作用,到了这个值就该停止分裂了。默认是MAX_INT.就是说不阻止分裂。默认: 2147483647
hbase.regionserver.logroll.period:提交commit log的间隔,不管有没有写足够的值。默认: 3600000
hbase.regionserver.hlog.reader.impl:HLog file reader 的实现.默认: org.apache.hadoop.hbase.regionserver.wal.SequenceFileLogReader
hbase.regionserver.hlog.writer.impl:HLog file writer 的实现.默认: org.apache.hadoop.hbase.regionserver.wal.SequenceFileLogWriter
hbase.regionserver.thread.splitcompactcheckfrequency:region server 多久执行一次split/compaction 检查. 默认: 20000
hbase.regionserver.nbreservationblocks:储备的内存block的数量(译者注:就像石油储备一样)。当发生out of memory 异常的时候,我们可以用这些内存在RegionServer停止之前做清理操作。
默认: 4
hbase.zookeeper.dns.interface:当使用DNS的时候,Zookeeper用来上报的IP地址的网络接口名字。 默认: default
hbase.zookeeper.dns.nameserver:当使用DNS的时候,Zookeepr使用的DNS的域名或者IP 地址,Zookeeper用它来确定和master用来进行通讯的域名. 默认: default
hbase.regionserver.dns.interface:当使用DNS的时候,RegionServer用来上报的IP地址的网络接口名字。 默认: default
hbase.regionserver.dns.nameserver:当使用DNS的时候,RegionServer使用的DNS的域名或者IP 地址,RegionServer用它来确定和master用来进行通讯的域名. 默认: default
hbase.master.dns.interface:当使用DNS的时候,Master用来上报的IP地址的网络接口名字。 默认: default
hbase.master.dns.nameserver:当使用DNS的时候,RegionServer使用的DNS的域名或者IP 地址,Master用它来确定用来进行通讯的域名. 默认: default
hbase.balancer.period: Master执行region balancer的间隔。 默认: 300000
hbase.regions.slop:当任一regionserver有average + (average * slop)个region是会执行Rebalance 默认: 0
hbase.master.logcleaner.ttl:Hlog存在于.oldlogdir 文件夹的最长时间, 超过了就会被 Master 的线程清理掉. 默认: 600000
hbase.master.logcleaner.plugins:LogsCleaner 服务会执行的一组LogCleanerDelegat。值用逗号间隔的文本表示。这些WAL/HLog cleaners会按顺序调用。可以把先调用的放在前面。你可以实现自己的LogCleanerDelegat,加到Classpath下,然后在这里写 下类的全称。一般都是加在默认值的前面。 默认: org.apache.hadoop.hbase.master.TimeToLiveLogCleaner
hbase.regionserver.global.memstore.upperLimit:单个region server的全部memtores的最大值。超过这个值,一个新的update操作会被挂起,强制执行flush操作。 默认: 0.4
hbase.regionserver.global.memstore.lowerLimit:当强制执行flush操作的时候,当低于这个值的时候,flush会停止。默认是堆大小的 35% . 如果这个值和 hbase.regionserver.global.memstore.upperLimit 相同就意味着当update操作因为内存限制被挂起时,会尽量少的执行flush(译者注:一旦执行flush,值就会比下限要低,不再执行) 默认: 0.35
hbase.server.thread.wakefrequency:service工作的sleep间隔,单位毫秒。 可以作为service线程的sleep间隔,比如log roller. 默认: 10000
hbase.hregion.memstore.flush.size:当memstore的大小超过这个值的时候,会flush到磁盘。这个值被一个线程每隔hbase.server.thread.wakefrequency检查一下。 默认: 67108864
hbase.hregion.preclose.flush.size:当一个region中的memstore的大小大于这个值的时候,我们又触发了close.会先运行“pre-flush”操作,清理这个需要关闭的 memstore,然后将这个region下线。当一个region下线了,我们无法再进行任何写操作。如果一个memstore很大的时候,flush 操作会消耗很多时间。"pre-flush"操作意味着在region下线之前,会先把memstore清空。这样在最终执行close操作的时 候,flush操作会很快。 默认: 5242880
hbase.hregion.memstore.block.multiplier:如果memstore有hbase.hregion.memstore.block.multiplier倍数的 hbase.hregion.flush.size的大小,就会阻塞update操作。这是为了预防在update高峰期会导致的失控。如果不设上 界,flush的时候会花很长的时间来合并或者分割,最坏的情况就是引发out of memory异常。(译者注:内存操作的速度和磁盘不匹配,需要等一等。原文似乎有误) 默认: 2
hbase.hregion.memstore.mslab.enabled:体验特性:启用memStore分配本地缓冲区。这个特性是为了防止在大量写负载的时候堆的碎片过多。这可以减少GC操作的频率。(GC有可能会Stop the world)(译者注:实现的原理相当于预分配内存,而不是每一个值都要从堆里分配) 默认: false
hbase.hregion.max.filesize:最大HStoreFile大小。若某个Column families的HStoreFile增长达到这个值,这个Hegion会被切割成两个。 Default: 256M. 默认: 268435456
hbase.hstore.compactionThreshold:当一个HStore含有多于这个值的HStoreFiles(每一个memstore flush产生一个HStoreFile)的时候,会执行一个合并操作,把这HStoreFiles写成一个。这个值越大,需要合并的时间就越长。 默认: 3
hbase.hstore.blockingStoreFiles:当一个HStore含有多于这个值的HStoreFiles(每一个memstore flush产生一个HStoreFile)的时候,会执行一个合并操作,update会阻塞直到合并完成,直到超过了hbase.hstore.blockingWaitTime的值 默认: 7
hbase.hstore.blockingWaitTime:hbase.hstore.blockingStoreFiles所限制的StoreFile数量会导致update阻塞,这个时间是来限制阻塞时间的。当超过了这个时间,HRegion会停止阻塞update操作,不过合并还有没有完成。默认为90s. 默认: 90000
hbase.hstore.compaction.max:每个“小”合并的HStoreFiles最大数量。 默认: 10
hbase.hregion.majorcompaction:一个Region中的所有HStoreFile的major compactions的时间间隔。默认是1天。 设置为0就是禁用这个功能。 默认: 86400000
hbase.mapreduce.hfileoutputformat.blocksize:MapReduce 中HFileOutputFormat可以写 storefiles/hfiles. 这个值是hfile的blocksize的最小值。通常在Hbase写Hfile的时候,bloocksize是由table schema(HColumnDescriptor)决定的,但是在mapreduce写的时候,我们无法获取schema中blocksize。这个值 越小,你的索引就越大,你随机访问需要获取的数据就越小。如果你的cell都很小,而且你需要更快的随机访问,可以把这个值调低。 默认: 65536
hfile.block.cache.size:分配给HFile/StoreFile的block cache占最大堆(-Xmx setting)的比例。默认是20%,设置为0就是不分配。 默认: 0.2
hbase.hash.type:哈希函数使用的哈希算法。可以选择两个值:: murmur (MurmurHash) 和 jenkins (JenkinsHash). 这个哈希是给 bloom filters用的. 默认: murmur
hbase.master.keytab.file:
HMaster server验证登录使用的kerberos keytab 文件路径。(译者注:Hbase使用Kerberos实现安全)
hbase.master.kerberos.principal:例 如. "hbase/_HOST@EXAMPLE.COM". HMaster运行需要使 用 kerberos principal name. principal name 可以在: user/hostname@DOMAIN 中获 取. 如果 "_HOST" 被用做hostname portion,需要使用实际运行的hostname来替代它。
hbase.regionserver.keytab.file:HRegionServer验证登录使用的kerberos keytab 文件路径。
hbase.regionserver.kerberos.principal:例 如. "hbase/_HOST@EXAMPLE.COM". HRegionServer运行需要使 用 kerberos principal name. principal name 可以在: user/hostname@DOMAIN 中获 取. 如果 "_HOST" 被用做hostname portion,需要使用实际运行的hostname来替代它。在这个文件中必须要有一个entry来描 述 hbase.regionserver.keytab.file
zookeeper.session.timeout:ZooKeeper 会话超时.Hbase把这个值传递改zk集群,向他推荐一个会话的最大超时时间。单位是毫秒 默认: 180000
zookeeper.znode.parent:ZooKeeper中的Hbase的根ZNode。所有的Hbase的ZooKeeper会用这个目录配置相对路径。默认情况下,所有的Hbase的ZooKeeper文件路径是用相对路径,所以他们会都去这个目录下面。 默认: /hbase
zookeeper.znode.rootserver:ZNode 保存的 根region的路径. 这个值是由Master来写,client和regionserver 来读的。如果设为一个相对地址,父目录就是 ${zookeeper.znode.parent}.默认情形下,意味着根region的路径存储在/hbase/root-region- server. 默认: root-region-server
hbase.zookeeper.quorum:Zookeeper 集群的地址列表,用逗号分割。例 如:"host1.mydomain.com,host2.mydomain.com,host3.mydomain.com".默认是 localhost,是给伪分布式用的。要修改才能在完全分布式的情况下使用。如果在hbase-env.sh设置了HBASE_MANAGES_ZK, 这些ZooKeeper节点就会和Hbase一起启动。 默认: localhost
hbase.zookeeper.peerport:ZooKeeper节点使用的端口。默认: 2888
hbase.zookeeper.leaderport:ZooKeeper用来选择Leader的端口. 默认: 3888
hbase.zookeeper.property.initLimit:ZooKeeper的zoo.conf中的配置。 初始化synchronization阶段的ticks数量限制 默认: 10
hbase.zookeeper.property.syncLimit:ZooKeeper的zoo.conf中的配置。 发送一个请求到获得承认之间的ticks的数量限制 默认: 5
hbase.zookeeper.property.dataDir:ZooKeeper的zoo.conf中的配置。 快照的存储位置 默认: ${hbase.tmp.dir}/zookeeper
hbase.zookeeper.property.clientPort:ZooKeeper的zoo.conf中的配置。 客户端连接的端口 默认: 2181
hbase.zookeeper.property.maxClientCnxns:ZooKeeper的zoo.conf中的配置。 ZooKeeper集群中的单个节点接受的单个Client(以IP区分)的请求的并发数。这个值可以调高一点,防止在单机和伪分布式模式中出问题。默认: 2000
hbase.rest.port:HBase REST server的端口 默认: 8080
hbase.rest.readonly:定义REST server的运行模式。可以设置成如下的值: false: 所有的HTTP请求都是被允许的 - GET/PUT/POST/DELETE. true:只有GET请求是被允许的 默认: false
1.在linux下面安装JDK1.6版本,注意:jdk是有版本区分的,32位必须装在32位系统上
下载jdk-6u27-linux-x64.bin
sudo chmod 777 jdk-6u27-linux-x64.bin 先赋予权限
sudo /bin/sh jdk-6u27-linux-x64.bin 这样就安装好了
2.如果ssh配置不成功,先看下ssh -v localhost输出什么
在看下日志文件 cat /var/log/auth.log 看看有什么错误
如果什么错误都没有报,打开/etc/ssh/sshd_config这个文件,找到etc/ssh/sshd_config下面的这2个认证,把NO换成yes
RSAAuthentication no
PubkeyAuthentication no 修改成
RSAAuthentication yes
PubkeyAuthentication yes
这个配置文件就是用来控制ssh服务的,要把这2个服务打开
3.如果想知道hadoop中hdfs存放哪些文件,就在hadoop下面输入
bin/hadoop fs -put ../input on 上传文件
bin/hadoop fs -ls / 查看hdfs存放文件
bin/hadoop fs -ls /in 查看in文件下存放的目录
bin/hadoop fs -cat /in/* 查看文本里面的内容
bin/hadoop fs -get in ./xya 将hdfs文件复制到本地
bin/hadoop fs -rmr in 删除hdfs下的文档
bin/hadoop dfsadmin -report 查看hdfs基本统计信息
进入和退出安全模式:
bin/hadoop dfsadmin -safemode enter
bin/hadoop dfsadmin -safemode leave
bin/start-balancer.sh 进行数据负载均衡
4.想要查看linux时间,输入:date
5.查询数据的总数量 ls|wc -l
6.运行.sh文件,必须加./
.sh文件权限设置为755,要是运行不了,看看jdk -version
.sh文件开头要加:#bin/sh
7.同步时间一致
su root 这样子会有service的命令
yum install ntp:下载时间服务器
cp /usr/share/zoneinfo/Asia/ShangHai /etc/localtime 把时间复制到系统时间里去
service ntpd start:开启,这句话是在cenots系统的
date -s:这个命令可以设置系统时间,例如:
date -s 06/10/96 :比如将系统时间设定成1996年6月10日的命令
date -s 13:12:00:将系统时间设定成下午1点12分0秒的命令
clock -w 或者hwclock -w:这个命令强制把系统时间写入CMOS
hwclock –systohc: 将系统时间写入硬件时间
第十章 hbase默认配置说明的更多相关文章
- hbase-default.xml(Hbase 默认参数翻译)
hbase.tmp.dir \({java.io.tmpdir}/hbase-\){user.name} 本地文件系统上的临时目录.将'/tmp'改为其他可以持久保存文件的位置,通常能够解决java. ...
- HBase学习系列
转自:http://www.aboutyun.com/thread-8391-1-1.html 问题导读: 1.hbase是什么? 2.hbase原理是什么? 3.hbase使用中会遇到什么问题? 4 ...
- 转载:HBASE配置说明
HBase 默认配置 ,原文:http://eclecl1314-163-com.iteye.com/blog/1474286 该文档是用hbase默认配置文件生成的,文件源是 hbase-defa ...
- HBase应用开发回顾与总结系列之一:概述HBase设计规范
概述 笔者本人接触研究HBase也有半年之久了,虽说不上深入和系统,但至少算是比较沉迷.作为部门里大数据技术的探路者,笔者还要承担起技术传播的职责,所以在摸索研究的过程中总是不断地进行总结和测试, ...
- HBase 1.2.6 完全分布式集群安装部署详细过程
Apache HBase 是一个高可靠性.高性能.面向列.可伸缩的分布式存储系统,是NoSQL数据库,基于Google Bigtable思想的开源实现,可在廉价的PC Server上搭建大规模结构化存 ...
- Centos6.5下Hbase安装
下载 http://mirror.bit.edu.cn/apache/hbase/hbase-0.94.26/hbase-0.94.26.tar.gz 2. 解压 tar -zxvf hbase-0 ...
- HBase数据库集群配置
0,HBase简介 HBase是Apache Hadoop中的一个子项目,是一个HBase是一个开源的.分布式的.多版本的.面向列的.非关系(NoSQL)的.可伸缩性分布式数据存储模型,Hbase依托 ...
- Hbase的配置和安装
Hbase的配置和安装 1. 解压hbase.配置HBASE_HOME tar -zxvf hbase-1.2.4.tar.gz 2. 修改$HBASE_HOME/conf/hbase-env.sh文 ...
- HBase配置性能调优(转)
因官方Book Performance Tuning部分章节没有按配置项进行索引,不能达到快速查阅的效果.所以我以配置项驱动,重新整理了原文,并补充一些自己的理解,如有错误,欢迎指正. 配置优化 zo ...
随机推荐
- windows下的一些命令
dir 相当于linux下的ls clear 清屏 netstat 活动连接 | 管道命令 findstr 查询类似linux的grep tasklist 查看进程列表 taskkill 杀死进程 d ...
- 使用VisualStudio读写NI FPGA板卡实例(基于FPGA Interface C API Generator)
实验平台说明:安装了NI LabVIEW 2015 32bit版本,安装了NI FPGA Interface C API Generator,安装了硬件PCIe-7842R:安装了Visual Stu ...
- windows的虚拟磁盘(vhd,vhdx)使用
以前一直使用u盘或者移动硬盘接上usb直接拷贝文件,发觉速度一般.而且一般只有一个盘,分类也很不方便. 后来发现windows的虚拟磁盘可以解决我的问题... 经过一段时间的使用后发觉使用虚拟磁盘的方 ...
- 随手一写就是一个侧滑关闭activity
刚忙完一段时间,今天刚清闲会,就把以前写的东西整理整理.于是冥冥中发现有些东西完全可以共享出来,毕竟那么常见,而且简单实用. 实现原因 其实侧滑关闭activity在网上也有大量的文章去介绍他,我也有 ...
- Python 实现windows后台服务
# -*- coding: utf-8 -*- import sys import win32api import win32con import win32event import win32ser ...
- LOJ2422 NOIP2015 斗地主 【搜索+贪心】*
LOJ2422 NOIP2015 斗地主 LINK 题目大意很简单,就是问你斗地主的一分手牌最少多少次出完 然后我们发现对于一种手牌状态,不考虑顺子的情况是可以贪心做掉的 然后我们直接枚举一下顺子出牌 ...
- BZOJ1131 POI2008 Sta 【树形DP】
BZOJ1131 POI2008 Sta Description 给出一个N个点的树,找出一个点来,以这个点为根的树时,所有点的深度之和最大 Input 给出一个数字N,代表有N个点.N<=10 ...
- Roslyn 的确定性构建
注意到每次编译完之后,你的 dll 或者 exe 是不一样的吗?本来这并没有什么大不了的,但大家都知道数字和鹅厂的安全软件遍布在我们大(tiān)陆(cháo)地区的大量电脑上,它们的查杀策略是——凡 ...
- Scala的=>作用
举例: var increase = (x: Int) => x + 1 increase(10) res0: Int = 11 类似于转化符号,=>指明这个函数把左边的东西(任何整数x) ...
- hadoop2.2使用手册2:如何运行自带wordcount
问题导读:1.hadoop2.x自带wordcount在什么位置?2.运行wordcount程序,需要做哪些准备? 此篇是在hadoop2完全分布式最新高可靠安装文档 hadoop2.X使用手册1:通 ...