------------------HBASE----------
[root@iClient~]#sudo yum install hbase #iClient安装Hbase客户端
[root@cMaster-]#sudo yum install hbase-master #cMaster 安装主服务HMaster
[root@cSlave0~]#sudo yum install hbase-regionserver #eSlave0安装从服务
[root@cSlavel~]#sudo yum install hbase-regionserver #cSlavel安装从服务
[root@cSlave2~]#sudo yum install hbase-regionserver #eSlave2安装从服务 4)配置Hbase编辑/etc/hbase/conf/hbase-site.xml将下面内容添加到configuration便笺切记iClient,cMaster,cSlave0~2这五台机器都要进行配置,且要求配置相同。
<property>
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.rootdir</name>
<value>hdfs://cMaster:8020/hbase</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>cSlave0,cSlavel,cSlave2</value>
</property> 5)HDFS里新建Hbase存储目录
[root@iClient~]#sudo -u hdfs hdfs dfs -mkdir /hbase
[root@iClient~]#sudo -u hdfs hdfs dfs -chown -R hbase /hbase 6)启动Hbase集群
共分三步,即启动ZooKeeper集群(参考ZooKeeper部署),启动主服务HMaster和启动从服务HRegionServer。
[root@cMaster~]#sudo service hbase-master start #cMaster开启主服务命令S
sudo service hbase-regionserver start #cSlave0,cSlavel,cSlave2开启regionserver Hbase后动好后,在iClient上浏览蓄打井“cMaster:60010”,即可以看到Hbase的Web页面。 2.Hbase接口
[root@iClient~]#hbase shell #进入Hbase命令行
hbase(main):001:0>list #查看所有表
hbase(main):002:0>create 'member','id','personalAttr','socialAttr' #创建member表
hbase(main):003:0>list
hbase(main):004:0>scan 'member' #查看member内容
hbase(main):005:0>put 'member','201401','personalAttr:name','aa' #向member表中插入数据
hbase(main):006:0>put 'member','201401','personalAtr:gender','0'
hbase(main):007:0>put 'member','201401','personalAttr:age','21'
hbase(main):008:0>put 'member','201401','socialAttr:edu','e0'
hbase(main):009:0>put 'member','201401,'socialAttr:job', 'p3'
hbase(main):010:0>put 'member','201401','socialAttr:imcome','m'
hbase(main):011:0>scan 'member'
hbase(main):012:0>disable 'member' #废弃member表
hbase(main):013:0>drop 'member' #删除member表
hbase(main):014:0>quit --------------------------- Pig------------------------
[root@iClient ~]# sudo yum install pig #只在iclient上安装 2.Pig访问接口
[root@iClient~]#sudo -u joe pig #进入joe用户的Pig命令行
grunt> help; #查看Pig操作
grunt>A=load 'input'; #载入待处理文件夹input
grunt>B=foreach A generate flatten (TOKENIZE((chararray)$0)) as word; #划分单词
grunt>C=group B by word; #指定按单词聚合,即同一个单词到一起
grunt>D=foreach C generate COUNT(B),group; #同一个单词出现次数相加
grunt>store D into 'out/wc-19'; #将处理好的文件存入HDFS下/user/joe/out/wc-19
grunt> dump D into; #将处理结果D打印到屏幕 ------------------------------------------Hive-----------------------
[root@iClient~]# sudo yum install hive #只在iclient上安装 (2)HDFS里新建Hive存储目录。
[root@iClient ~]#sudo -u hdfs hdfs dfs-mkdir /user/hive #HDFS里新建 Hive存储目录
[root@iClient~]#sudo -u hdfs hdfs dfs-chmod -R 1777 /user/hive #为目录设置适当权限 只需上述两步就可以直接使用Hive了,当然,也可以使用jps命令查看Hive进程。
2.Hive接口
[root@iClient~]#Hive #进入Hive命令行
hive>show functions; #获取Hhive所有函数列表
hive>describe function count; #查看count函数用法 首先为表准备数据,即在iClient目录“/root”下新建文件memberData并写入如下内容,注意记录间为换行符,字段间以Tab键分割。
201401 aa 0 21 e0 p3 m
201402 bb 1 22 el p2 1
201403 cc 1 22 e2 pl m hive>show tables; #查看当前 Hive仓库中所有表(以确定当前无member表)
hive>create table member(id int,name string,gender tinyint,age tinyint,edu string,prof string,income string)row format delimited fields terminated by\t';
#使用合适字段与类型,新建member表
hive>show tables; #次查看,将显示member表
hive>load data local inpath '/root/memberData' into table member; #将本地文件memberData载入HDFS
hive>select * from member; #查看表中所有记录
hive>select * from member where gender=1; #查看表中gender值为1的记录
hive>select * from member where gender=1 AND age=23; #查看表中gender值为1且age为23的记录
hive>select gender,count(*)from member group by gender; #统计男女出现总次数
hive>drop table member; #删除member表
hive>quit; #退出Hive命令行接口

hbase、pig、hive配置与应用的更多相关文章

  1. hadoop生态圈安装详解(hadoop+zookeeper+hbase+pig+hive)

    -------------------------------------------------------------------* 目录 * I   hadoop分布式安装   * II zoo ...

  2. pig hive hbase比较

    Pig 一种操作hadoop的轻量级脚本语言,最初又雅虎公司推出,不过现在正在走下坡路了.当初雅虎自己慢慢退出pig的维护之后将它开源贡献到开源社区由所有爱好者来维护.不过现在还是有些公司在用,不过我 ...

  3. Hive over HBase和Hive over HDFS性能比较分析

    http://superlxw1234.iteye.com/blog/2008274 环境配置: hadoop-2.0.0-cdh4.3.0 (4 nodes, 24G mem/node) hbase ...

  4. Hive综合HBase——经Hive阅读/书写 HBase桌子

    社论: 本文将Hive与HBase整合在一起,使Hive能够读取HBase中的数据,让Hadoop生态系统中最为经常使用的两大框架互相结合.相得益彰. watermark/2/text/aHR0cDo ...

  5. HBase的环境配置及其应用

    -------------------------------------------------------------------------------------- [版权申明:本文系作者原创 ...

  6. Hadoop+HBase+Spark+Hive环境搭建

    杨赟快跑 简书作者 2018-09-24 10:24 打开App 摘要:大数据门槛较高,仅仅环境的搭建可能就要耗费我们大量的精力,本文总结了作者是如何搭建大数据环境的(单机版和集群版),希望能帮助学弟 ...

  7. HBase(六)HBase整合Hive,数据的备份与MR操作HBase

    一.数据的备份与恢复 1. 备份 停止 HBase 服务后,使用 distcp 命令运行 MapReduce 任务进行备份,将数据备份到另一个地方,可以是同一个集群,也可以是专用的备份集群. 即,把数 ...

  8. hbase安装与配置-分布式

    HBASE安装与配置 备注: 1:本文在hadoop的完全分布式基础上部署hbase 2:本文使用的是小博主自己搭建的zookpeer服务,未使用hbase本身的zookpeer服务 本文内容在以下前 ...

  9. HBASE与hive对比使用以及HBASE常用shell操作。与sqoop的集成

    2.6.与 Hive 的集成2.6.1.HBase 与 Hive 的对比1) Hive(1) 数据仓库Hive 的本质其实就相当于将 HDFS 中已经存储的文件在 Mysql 中做了一个双射关系,以方 ...

  10. 大数据技术之_11_HBase学习_02_HBase API 操作 + HBase 与 Hive 集成 + HBase 优化

    第6章 HBase API 操作6.1 环境准备6.2 HBase API6.2.1 判断表是否存在6.2.2 抽取获取 Configuration.Connection.Admin 对象的方法以及关 ...

随机推荐

  1. OPC协议

    详解OPC协议-工业控制和自动化领域的接口标准     摘要:OPC全称是OLEforProcessControl,即用于过程控制的OLE,是针对现场控制系统的一个工业标准接口,是工业控制和生产自动化 ...

  2. 以太坊智能合约[ERC20]发币记录

    以太坊被称为区块链2.0,就是因为以太坊在应用层提供了虚拟机,使得开发者可以基于它自定义逻辑,通常被称为智能合约,合约中的公共接口可以作为区块链中的普通交易执行.本文就智能合约发代币流程作一完整介绍( ...

  3. Python之流程控制——if...else...

    Python之流程控制--if...else... 一.流程控制 假如把程序比做走路,那我们到现在为止,一直走的都是直路,还没遇到过分岔口.当遇到分岔口时,你得判断哪条岔路是你要走的路,如果我们想让程 ...

  4. 刨死你系列——HashMap(jdk1.8)

    本文的源码是基于JDK1.8版本,在学习HashMap之前,先了解数组和链表的知识. 数组:数组具有遍历快,增删慢的特点.数组在堆中是一块连续的存储空间,遍历时数组的首地址是知道的(首地址=首地址+元 ...

  5. lightoj 1086 - Jogging Trails(状压dp)

    题目链接:http://www.lightoj.com/volume_showproblem.php?problem=1086 题解:题目就是求欧拉回路然后怎么判断有欧拉回路只要所有点的度数为偶数.那 ...

  6. Allure-pytest功能特性介绍

    前言 Allure框架是一个灵活的轻量级多语言测试报告工具,它不仅以web的方式展示了简介的测试结果,而且允许参与开发过程的每个人从日常执行的测试中最大限度的提取有用信息从dev/qa的角度来看,Al ...

  7. pt工具校验主从数据一致性之dsns方式

    mysql主从数据一致性校验,常用的方法是Percona-Toolkit的组件pt-table-checksum,这东西怎么用网上一大堆,就不啰嗦了.主要说一下通过dsns方式发现从库的一种方式. p ...

  8. 【1】KNN(K-nearest neighbors algorithm)

    基本原理 KNN算法又叫最近邻居法,是一种非常简单易于掌握的分类算法. 其基本原理是,存在一个已知标签的数据集合,也就是训练样本集. 这个样本集中的每一个数据所属的分类都是已知的. 当一个没有标签的新 ...

  9. moco 入门及问题解决

    废话不多说 下载: http://repo1.maven.org/maven2/com/github/dreamhead/moco-runner/ 选择最新版本下载jar包 启动: 1:在本地jar包 ...

  10. centos7 kubernetes单机安装

    单机版的kubernetes 适合初学者,对kuber有个很好的入门. 因为centos系统内置了安装源.我们可以直接安装 1.yum install -y etco kubernetes 2.whe ...