hbase.rootdir:这个目录是region  server的共享目录,用来持久化Hbase。URL需要是'完全正确'的,还要包含文件系统的scheme。例如,要表示hdfs中的 '/hbase'目录,namenode  运行在namenode.example.org的9090端口。则需要设置为hdfs://namenode.example.org:9000 /hbase。默认情况下Hbase是写到/tmp的。不改这个配置,数据会在重启的时候丢失。默认: file:///tmp/hbase-${user.name}/hbase

hbase.master.port:Hbase的Master的端口.默认: 60000

hbase.cluster.distributed:Hbase的运行模式。false是单机模式,true是分布式模式。若为false,Hbase和Zookeeper会运行在同一个JVM里面。默认: false

hbase.tmp.dir:本地文件系统的临时文件夹。可以修改到一个更为持久的目录上。(/tmp会在重启时清楚)    默认: /tmp/hbase-${user.name}

hbase.master.info.port:HBase Master web 界面端口.     设置为-1 意味着你不想让他运行。默认: 60010

hbase.master.info.bindAddress:HBase Master web 界面绑定的端口   默认: 0.0.0.0

hbase.client.write.buffer:HTable 客户端的写缓冲的默认大小。这个值越大,需要消耗的内存越大。因为缓冲在客户端和服务端都有实例,所以需要消耗客户端和服务端两个地方的内存。得到的好处 是,可以减少RPC的次数。可以这样估算服务器端被占用的内存: hbase.client.write.buffer *  hbase.regionserver.handler.count     默认: 2097152

hbase.regionserver.port:HBase RegionServer绑定的端口     默认: 60020

hbase.regionserver.info.port:HBase RegionServer web 界面绑定的端口     设置为 -1 意味这你不想与运行 RegionServer 界面.    默认: 60030

hbase.regionserver.info.port.auto:Master或RegionServer是否要动态搜一个可以用的端口来绑定界面。当hbase.regionserver.info.port已经被占用的时候,可以搜一个空闲的端口绑定。这个功能在测试的时候很有用。默认关闭。     默认: false

hbase.regionserver.info.bindAddress:HBase RegionServer web 界面的IP地址     默认: 0.0.0.0

hbase.regionserver.class:RegionServer 使用的接口。客户端打开代理来连接region server的时候会使用到。     默认: org.apache.hadoop.hbase.ipc.HRegionInterface

hbase.client.pause:通常的客户端暂停时间。最多的用法是客户端在重试前的等待时间。比如失败的get操作和region查询操作等都很可能用到。默认: 1000

hbase.client.retries.number:最大重试次数。例如 region查询,Get操作,Update操作等等都可能发生错误,需要重试。这是最大重试错误的值。   默认: 10

hbase.client.scanner.caching:当 调用Scanner的next方法,而值又不在缓存里的时候,从服务端一次获取的行数。越大的值意味着Scanner会快一些,但是会占用更多的内存。当 缓冲被占满的时候,next方法调用会越来越慢。慢到一定程度,可能会导致超时。例如超过了 hbase.regionserver.lease.period。    默认: 1

hbase.client.keyvalue.maxsize:一 个KeyValue实例的最大size.这个是用来设置存储文件中的单个entry的大小上界。因为一个KeyValue是不能分割的,所以可以避免因为 数据过大导致region不可分割。明智的做法是把它设为可以被最大region  size整除的数。如果设置为0或者更小,就会禁用这个检查。默认10MB。     默认: 10485760

hbase.regionserver.lease.period:客户端租用HRegion server 期限,即超时阀值。单位是毫秒。默认情况下,客户端必须在这个时间内发一条信息,否则视为死掉。默认: 60000

hbase.regionserver.handler.count:RegionServers受理的RPC Server实例数量。对于Master来说,这个属性是Master受理的handler数量     默认: 10

hbase.regionserver.msginterval:RegionServer 发消息给 Master 时间间隔,单位是毫秒     默认: 3000

hbase.regionserver.optionallogflushinterval:将Hlog同步到HDFS的间隔。如果Hlog没有积累到一定的数量,到了时间,也会触发同步。默认是1秒,单位毫秒。    默认: 1000

hbase.regionserver.regionSplitLimit:region的数量到了这个值后就不会在分裂了。这不是一个region数量的硬性限制。但是起到了一定指导性的作用,到了这个值就该停止分裂了。默认是MAX_INT.就是说不阻止分裂。默认: 2147483647

hbase.regionserver.logroll.period:提交commit log的间隔,不管有没有写足够的值。默认: 3600000

hbase.regionserver.hlog.reader.impl:HLog file reader 的实现.默认: org.apache.hadoop.hbase.regionserver.wal.SequenceFileLogReader

hbase.regionserver.hlog.writer.impl:HLog file writer 的实现.默认: org.apache.hadoop.hbase.regionserver.wal.SequenceFileLogWriter

hbase.regionserver.thread.splitcompactcheckfrequency:region server 多久执行一次split/compaction 检查.     默认: 20000

hbase.regionserver.nbreservationblocks:储备的内存block的数量(译者注:就像石油储备一样)。当发生out of memory 异常的时候,我们可以用这些内存在RegionServer停止之前做清理操作。

默认: 4

hbase.zookeeper.dns.interface:当使用DNS的时候,Zookeeper用来上报的IP地址的网络接口名字。    默认: default

hbase.zookeeper.dns.nameserver:当使用DNS的时候,Zookeepr使用的DNS的域名或者IP 地址,Zookeeper用它来确定和master用来进行通讯的域名.    默认: default

hbase.regionserver.dns.interface:当使用DNS的时候,RegionServer用来上报的IP地址的网络接口名字。     默认: default

hbase.regionserver.dns.nameserver:当使用DNS的时候,RegionServer使用的DNS的域名或者IP 地址,RegionServer用它来确定和master用来进行通讯的域名.     默认: default

hbase.master.dns.interface:当使用DNS的时候,Master用来上报的IP地址的网络接口名字。    默认: default

hbase.master.dns.nameserver:当使用DNS的时候,RegionServer使用的DNS的域名或者IP 地址,Master用它来确定用来进行通讯的域名.     默认: default

hbase.balancer.period: Master执行region balancer的间隔。     默认: 300000

hbase.regions.slop:当任一regionserver有average + (average * slop)个region是会执行Rebalance     默认: 0

hbase.master.logcleaner.ttl:Hlog存在于.oldlogdir 文件夹的最长时间,     超过了就会被 Master 的线程清理掉.     默认: 600000

hbase.master.logcleaner.plugins:LogsCleaner 服务会执行的一组LogCleanerDelegat。值用逗号间隔的文本表示。这些WAL/HLog  cleaners会按顺序调用。可以把先调用的放在前面。你可以实现自己的LogCleanerDelegat,加到Classpath下,然后在这里写 下类的全称。一般都是加在默认值的前面。     默认: org.apache.hadoop.hbase.master.TimeToLiveLogCleaner

hbase.regionserver.global.memstore.upperLimit:单个region server的全部memtores的最大值。超过这个值,一个新的update操作会被挂起,强制执行flush操作。     默认: 0.4

hbase.regionserver.global.memstore.lowerLimit:当强制执行flush操作的时候,当低于这个值的时候,flush会停止。默认是堆大小的 35% .      如果这个值和 hbase.regionserver.global.memstore.upperLimit 相同就意味着当update操作因为内存限制被挂起时,会尽量少的执行flush(译者注:一旦执行flush,值就会比下限要低,不再执行)     默认: 0.35

hbase.server.thread.wakefrequency:service工作的sleep间隔,单位毫秒。 可以作为service线程的sleep间隔,比如log roller.     默认: 10000

hbase.hregion.memstore.flush.size:当memstore的大小超过这个值的时候,会flush到磁盘。这个值被一个线程每隔hbase.server.thread.wakefrequency检查一下。     默认: 67108864

hbase.hregion.preclose.flush.size:当一个region中的memstore的大小大于这个值的时候,我们又触发了close.会先运行“pre-flush”操作,清理这个需要关闭的 memstore,然后将这个region下线。当一个region下线了,我们无法再进行任何写操作。如果一个memstore很大的时候,flush 操作会消耗很多时间。"pre-flush"操作意味着在region下线之前,会先把memstore清空。这样在最终执行close操作的时 候,flush操作会很快。     默认: 5242880

hbase.hregion.memstore.block.multiplier:如果memstore有hbase.hregion.memstore.block.multiplier倍数的 hbase.hregion.flush.size的大小,就会阻塞update操作。这是为了预防在update高峰期会导致的失控。如果不设上 界,flush的时候会花很长的时间来合并或者分割,最坏的情况就是引发out of  memory异常。(译者注:内存操作的速度和磁盘不匹配,需要等一等。原文似乎有误)     默认: 2

hbase.hregion.memstore.mslab.enabled:体验特性:启用memStore分配本地缓冲区。这个特性是为了防止在大量写负载的时候堆的碎片过多。这可以减少GC操作的频率。(GC有可能会Stop the world)(译者注:实现的原理相当于预分配内存,而不是每一个值都要从堆里分配)     默认: false

hbase.hregion.max.filesize:最大HStoreFile大小。若某个Column families的HStoreFile增长达到这个值,这个Hegion会被切割成两个。       Default: 256M.     默认: 268435456

hbase.hstore.compactionThreshold:当一个HStore含有多于这个值的HStoreFiles(每一个memstore flush产生一个HStoreFile)的时候,会执行一个合并操作,把这HStoreFiles写成一个。这个值越大,需要合并的时间就越长。     默认: 3

hbase.hstore.blockingStoreFiles:当一个HStore含有多于这个值的HStoreFiles(每一个memstore flush产生一个HStoreFile)的时候,会执行一个合并操作,update会阻塞直到合并完成,直到超过了hbase.hstore.blockingWaitTime的值     默认: 7

hbase.hstore.blockingWaitTime:hbase.hstore.blockingStoreFiles所限制的StoreFile数量会导致update阻塞,这个时间是来限制阻塞时间的。当超过了这个时间,HRegion会停止阻塞update操作,不过合并还有没有完成。默认为90s.     默认: 90000

hbase.hstore.compaction.max:每个“小”合并的HStoreFiles最大数量。     默认: 10

hbase.hregion.majorcompaction:一个Region中的所有HStoreFile的major compactions的时间间隔。默认是1天。 设置为0就是禁用这个功能。     默认: 86400000

hbase.mapreduce.hfileoutputformat.blocksize:MapReduce 中HFileOutputFormat可以写 storefiles/hfiles. 这个值是hfile的blocksize的最小值。通常在Hbase写Hfile的时候,bloocksize是由table  schema(HColumnDescriptor)决定的,但是在mapreduce写的时候,我们无法获取schema中blocksize。这个值 越小,你的索引就越大,你随机访问需要获取的数据就越小。如果你的cell都很小,而且你需要更快的随机访问,可以把这个值调低。     默认: 65536

hfile.block.cache.size:分配给HFile/StoreFile的block cache占最大堆(-Xmx setting)的比例。默认是20%,设置为0就是不分配。       默认: 0.2

hbase.hash.type:哈希函数使用的哈希算法。可以选择两个值:: murmur (MurmurHash) 和 jenkins (JenkinsHash).     这个哈希是给 bloom filters用的.     默认: murmur

hbase.master.keytab.file:

HMaster server验证登录使用的kerberos keytab 文件路径。(译者注:Hbase使用Kerberos实现安全)

hbase.master.kerberos.principal:例 如. "hbase/_HOST@EXAMPLE.COM".  HMaster运行需要使 用 kerberos principal name.  principal name 可以在: user/hostname@DOMAIN 中获 取. 如果 "_HOST" 被用做hostname     portion,需要使用实际运行的hostname来替代它。

hbase.regionserver.keytab.file:HRegionServer验证登录使用的kerberos keytab 文件路径。

hbase.regionserver.kerberos.principal:例 如. "hbase/_HOST@EXAMPLE.COM".  HRegionServer运行需要使 用 kerberos principal name.  principal name 可以在: user/hostname@DOMAIN 中获 取. 如果 "_HOST" 被用做hostname     portion,需要使用实际运行的hostname来替代它。在这个文件中必须要有一个entry来描 述 hbase.regionserver.keytab.file

zookeeper.session.timeout:ZooKeeper   会话超时.Hbase把这个值传递改zk集群,向他推荐一个会话的最大超时时间。单位是毫秒     默认: 180000

zookeeper.znode.parent:ZooKeeper中的Hbase的根ZNode。所有的Hbase的ZooKeeper会用这个目录配置相对路径。默认情况下,所有的Hbase的ZooKeeper文件路径是用相对路径,所以他们会都去这个目录下面。     默认: /hbase

zookeeper.znode.rootserver:ZNode  保存的 根region的路径. 这个值是由Master来写,client和regionserver 来读的。如果设为一个相对地址,父目录就是  ${zookeeper.znode.parent}.默认情形下,意味着根region的路径存储在/hbase/root-region- server.     默认: root-region-server

hbase.zookeeper.quorum:Zookeeper 集群的地址列表,用逗号分割。例 如:"host1.mydomain.com,host2.mydomain.com,host3.mydomain.com".默认是 localhost,是给伪分布式用的。要修改才能在完全分布式的情况下使用。如果在hbase-env.sh设置了HBASE_MANAGES_ZK, 这些ZooKeeper节点就会和Hbase一起启动。         默认: localhost

hbase.zookeeper.peerport:ZooKeeper节点使用的端口。默认: 2888

hbase.zookeeper.leaderport:ZooKeeper用来选择Leader的端口. 默认: 3888

hbase.zookeeper.property.initLimit:ZooKeeper的zoo.conf中的配置。 初始化synchronization阶段的ticks数量限制     默认: 10

hbase.zookeeper.property.syncLimit:ZooKeeper的zoo.conf中的配置。 发送一个请求到获得承认之间的ticks的数量限制     默认: 5

hbase.zookeeper.property.dataDir:ZooKeeper的zoo.conf中的配置。     快照的存储位置     默认: ${hbase.tmp.dir}/zookeeper

hbase.zookeeper.property.clientPort:ZooKeeper的zoo.conf中的配置。 客户端连接的端口     默认: 2181

hbase.zookeeper.property.maxClientCnxns:ZooKeeper的zoo.conf中的配置。 ZooKeeper集群中的单个节点接受的单个Client(以IP区分)的请求的并发数。这个值可以调高一点,防止在单机和伪分布式模式中出问题。默认: 2000

hbase.rest.port:HBase REST server的端口      默认: 8080

hbase.rest.readonly:定义REST server的运行模式。可以设置成如下的值:     false: 所有的HTTP请求都是被允许的 - GET/PUT/POST/DELETE.     true:只有GET请求是被允许的     默认: false

1.在linux下面安装JDK1.6版本,注意:jdk是有版本区分的,32位必须装在32位系统上

下载jdk-6u27-linux-x64.bin

sudo chmod 777 jdk-6u27-linux-x64.bin  先赋予权限

sudo /bin/sh  jdk-6u27-linux-x64.bin     这样就安装好了

2.如果ssh配置不成功,先看下ssh -v localhost输出什么

在看下日志文件  cat  /var/log/auth.log   看看有什么错误

如果什么错误都没有报,打开/etc/ssh/sshd_config这个文件,找到etc/ssh/sshd_config下面的这2个认证,把NO换成yes

RSAAuthentication no

PubkeyAuthentication no  修改成

RSAAuthentication yes

PubkeyAuthentication yes

这个配置文件就是用来控制ssh服务的,要把这2个服务打开

3.如果想知道hadoop中hdfs存放哪些文件,就在hadoop下面输入

bin/hadoop fs -put ../input on    上传文件

bin/hadoop   fs   -ls   /    查看hdfs存放文件

bin/hadoop fs -ls /in     查看in文件下存放的目录

bin/hadoop fs -cat /in/*    查看文本里面的内容

bin/hadoop fs -get  in   ./xya   将hdfs文件复制到本地

bin/hadoop fs  -rmr in  删除hdfs下的文档

bin/hadoop  dfsadmin  -report    查看hdfs基本统计信息

进入和退出安全模式:

bin/hadoop dfsadmin  -safemode enter

bin/hadoop dfsadmin  -safemode leave

bin/start-balancer.sh  进行数据负载均衡

4.想要查看linux时间,输入:date

5.查询数据的总数量    ls|wc  -l

6.运行.sh文件,必须加./

.sh文件权限设置为755,要是运行不了,看看jdk  -version

.sh文件开头要加:#bin/sh

7.同步时间一致

su  root     这样子会有service的命令

yum install ntp:下载时间服务器

cp /usr/share/zoneinfo/Asia/ShangHai /etc/localtime  把时间复制到系统时间里去

service ntpd start:开启,这句话是在cenots系统的

date  -s:这个命令可以设置系统时间,例如:

date  -s  06/10/96  :比如将系统时间设定成1996年6月10日的命令

date  -s  13:12:00:将系统时间设定成下午1点12分0秒的命令

clock -w 或者hwclock -w:这个命令强制把系统时间写入CMOS

hwclock –systohc: 将系统时间写入硬件时间

第十章 hbase默认配置说明的更多相关文章

  1. hbase-default.xml(Hbase 默认参数翻译)

    hbase.tmp.dir \({java.io.tmpdir}/hbase-\){user.name} 本地文件系统上的临时目录.将'/tmp'改为其他可以持久保存文件的位置,通常能够解决java. ...

  2. HBase学习系列

    转自:http://www.aboutyun.com/thread-8391-1-1.html 问题导读: 1.hbase是什么? 2.hbase原理是什么? 3.hbase使用中会遇到什么问题? 4 ...

  3. 转载:HBASE配置说明

    HBase 默认配置  ,原文:http://eclecl1314-163-com.iteye.com/blog/1474286 该文档是用hbase默认配置文件生成的,文件源是 hbase-defa ...

  4. HBase应用开发回顾与总结系列之一:概述HBase设计规范

      概述 笔者本人接触研究HBase也有半年之久了,虽说不上深入和系统,但至少算是比较沉迷.作为部门里大数据技术的探路者,笔者还要承担起技术传播的职责,所以在摸索研究的过程中总是不断地进行总结和测试, ...

  5. HBase 1.2.6 完全分布式集群安装部署详细过程

    Apache HBase 是一个高可靠性.高性能.面向列.可伸缩的分布式存储系统,是NoSQL数据库,基于Google Bigtable思想的开源实现,可在廉价的PC Server上搭建大规模结构化存 ...

  6. Centos6.5下Hbase安装

    下载 http://mirror.bit.edu.cn/apache/hbase/hbase-0.94.26/hbase-0.94.26.tar.gz 2.  解压 tar -zxvf hbase-0 ...

  7. HBase数据库集群配置

    0,HBase简介 HBase是Apache Hadoop中的一个子项目,是一个HBase是一个开源的.分布式的.多版本的.面向列的.非关系(NoSQL)的.可伸缩性分布式数据存储模型,Hbase依托 ...

  8. Hbase的配置和安装

    Hbase的配置和安装 1. 解压hbase.配置HBASE_HOME tar -zxvf hbase-1.2.4.tar.gz 2. 修改$HBASE_HOME/conf/hbase-env.sh文 ...

  9. HBase配置性能调优(转)

    因官方Book Performance Tuning部分章节没有按配置项进行索引,不能达到快速查阅的效果.所以我以配置项驱动,重新整理了原文,并补充一些自己的理解,如有错误,欢迎指正. 配置优化 zo ...

随机推荐

  1. windows下的一些命令

    dir 相当于linux下的ls clear 清屏 netstat 活动连接 | 管道命令 findstr 查询类似linux的grep tasklist 查看进程列表 taskkill 杀死进程 d ...

  2. 使用VisualStudio读写NI FPGA板卡实例(基于FPGA Interface C API Generator)

    实验平台说明:安装了NI LabVIEW 2015 32bit版本,安装了NI FPGA Interface C API Generator,安装了硬件PCIe-7842R:安装了Visual Stu ...

  3. windows的虚拟磁盘(vhd,vhdx)使用

    以前一直使用u盘或者移动硬盘接上usb直接拷贝文件,发觉速度一般.而且一般只有一个盘,分类也很不方便. 后来发现windows的虚拟磁盘可以解决我的问题... 经过一段时间的使用后发觉使用虚拟磁盘的方 ...

  4. 随手一写就是一个侧滑关闭activity

    刚忙完一段时间,今天刚清闲会,就把以前写的东西整理整理.于是冥冥中发现有些东西完全可以共享出来,毕竟那么常见,而且简单实用. 实现原因 其实侧滑关闭activity在网上也有大量的文章去介绍他,我也有 ...

  5. Python 实现windows后台服务

    # -*- coding: utf-8 -*- import sys import win32api import win32con import win32event import win32ser ...

  6. LOJ2422 NOIP2015 斗地主 【搜索+贪心】*

    LOJ2422 NOIP2015 斗地主 LINK 题目大意很简单,就是问你斗地主的一分手牌最少多少次出完 然后我们发现对于一种手牌状态,不考虑顺子的情况是可以贪心做掉的 然后我们直接枚举一下顺子出牌 ...

  7. BZOJ1131 POI2008 Sta 【树形DP】

    BZOJ1131 POI2008 Sta Description 给出一个N个点的树,找出一个点来,以这个点为根的树时,所有点的深度之和最大 Input 给出一个数字N,代表有N个点.N<=10 ...

  8. Roslyn 的确定性构建

    注意到每次编译完之后,你的 dll 或者 exe 是不一样的吗?本来这并没有什么大不了的,但大家都知道数字和鹅厂的安全软件遍布在我们大(tiān)陆(cháo)地区的大量电脑上,它们的查杀策略是——凡 ...

  9. Scala的=>作用

    举例: var increase = (x: Int) => x + 1 increase(10) res0: Int = 11 类似于转化符号,=>指明这个函数把左边的东西(任何整数x) ...

  10. hadoop2.2使用手册2:如何运行自带wordcount

    问题导读:1.hadoop2.x自带wordcount在什么位置?2.运行wordcount程序,需要做哪些准备? 此篇是在hadoop2完全分布式最新高可靠安装文档 hadoop2.X使用手册1:通 ...