.Hive安装和配置

1.先决条件

已经安装好hadoop-2.4.1,hbase-1.0.0。

2.下载Hive安装包

当前Hive可到apache官网下载,选择的是hive-1.2.1。运行:

wget http://www-us.apache.org/dist/hive/hive-1.2.1/apache-hive-1.2.1-bin.tar.gz          然后将其解压到Hadoop所在的目录:/opt下。

解压:tar -zvxf apache-hive-1.2.1-bin.tar.gz /opt

重命名下:mv /opt/apache-hive-1.2.1-bin /opt/hive-1.2.1

3.配置系统环境变量/etc/profile

export HIVE_HOME=/opt/hive-1.2.1

export PATH=$PATH:$HIVE_HOME/bin:$HIVE_HOME/conf

source /etc/profile 使刚刚的配置生效

4.配置Hive

hive的配置文件放在$HIVE_HOME/conf下,里面有4个默认的配置文件模板

hive-default.xml.template                          
默认模板

hive-env.sh.template               
hive-env.sh默认配置

hive-exec-log4j.properties.template    exec默认配置

hive-log4j.properties.template              
log默认配置

        可不做任何修改hive也能运行,默认的配置元数据是存放在Derby数据库里面的,大多数人都不怎么熟悉,我们得改用mysql来存储我们的元数据,以及修改数据存放位置和日志存放位置等使得我们必须配置自己的环境,下面介绍如何配置。

        (1)创建配置文件,直接copy默认配置文件再修改即可,用户自定义配置会覆盖默认配置

         cp
$HIVE_HOME/conf/hive-default.xml.template $HIVE_HOME/conf/hive-site.xml

       cp $HIVE_HOME/conf/hive-env.sh.template
$HIVE_HOME/conf/hive-env.sh

       cp
$HIVE_HOME/conf/hive-exec-log4j.properties.template
$HIVE_HOME/conf/hive-exec-log4j.properties

       cp
$HIVE_HOME/conf/hive-log4j.properties.template
$HIVE_HOME/conf/hive-log4j.properties

        (2)修改 hive-env.sh

         vi
$HIVE_HOME/conf/hive-env.sh 

       export HADOOP_HOME=/opt/hadoop-2.4.1

       export HIVE_CONF_DIR=/opt/hive-1.2.1/conf

        (3)修改 hive-log4j.properties

          mkdir $HIVE_HOME/logs

        vi
$HIVE_HOME/conf/hive-log4j.properties

        hive.log.dir=/opt/hive-1.2.1/logs

        (4)修改 hive-site.xml

         vi
$HIVE_HOME/conf/hive-site.xml

     <configuration>

     <property>

      
<name>hive.metastore.warehouse.dir</name>

       <value>/opt/hive-1.2.1/warehouse</value>

     </property>

     <property>

      
<name>hive.exec.scratchdir</name>

       <value>/opt/hive-1.2.1/scratchdir</value>

     </property>

     <property>

      
<name>hive.querylog.location</name>

       <value>/opt/hive-1.2.1/logs</value>

     </property>

     <property>

      
<name>javax.jdo.option.ConnectionURL</name>

       <value> jdbc:mysql://localhost:3306/hivedb?createDatabaseIfNotExist=true</value>

     </property>

     <property>

      
<name>javax.jdo.option.ConnectionDriverName</name>

       <value>com.mysql.jdbc.Driver</value>

     </property>

     <property>

      
<name>javax.jdo.option.ConnectionUserName</name>

       <value>*****(根据自己的用户名填)</value>

     </property>

     <property>

      
<name>javax.jdo.option.ConnectionPassword</name>

       <value>*****(根据自己的密码填)</value>

     </property>

     <property>

      
<name>hive.aux.jars.path</name>

      <value>file:///opt/hive-1.2.1/lib/hive-hbase-handler-1.2.1.jar,file:///opt/hive-1.2.1/lib/hbase-client-1.0.0.jar,file:///opt/hive-1.2.1/lib/hbase-common-1.0.0.jar,file:///opt/hive-1.2.1/lib/hbase-common-1.0.0-tests.jar,file:///opt/hive-1.2.1/lib/hbase-protocol-1.0.0.jar,file:///opt/hive-1.2.1/lib/hbase-server-1.0.0.jar,file:///opt/hive-1.2.1/lib/htrace-core-3.1.0-incubating.jar,file:///opt/hive-1.2.1/lib/zookeeper-3.4.6.jar,file:///opt/hive-1.2.1/lib/protobuf-java-2.5.0.jar,file:///opt/hive-1.2.1/lib/guava-12.0.1.jar</value>

     </property>

</configuration>

        下面解释下一些重要的配置项:

         hive.metastore.warehouse.dir:指定hive的数据存储目录,指定的是HDFS上的位置,默认值:/user/hive/warehouse,为了便于管理,hive-1.2.1文件下创建文件warehouse。

         hive.exec.scratchdir:指定hive的临时数据目录,默认位置为:/tmp/hive-${user.name}。为了便于管理,hive-1.2.1文件下创建文件scratchdir。

               javax.jdo.option.ConnectionURL:指定hive连接的数据库的数据库连接字符串

         javax.jdo.option.ConnectionDriverName:指定驱动的类入口名称

         hive.aux.jars.path:是与hbase整合的时候需要用到的jar包,必须加上

5.复制hbase库到hive下面

         cp $HBASE_HOME/lib/hbase-*
$HIVE_HOME/lib/

         cp
$HBASE_HOME/lib/htrace-core-3.1.0-incubating.jar $HIVE_HOME/lib/

         cp
$HBASE_HOME/lib/zookeeper-3.4.6.jar $HIVE_HOME/lib/

提示已有文件,是否覆盖,选y。

         cp
$HBASE_HOME/lib/protobuf-java-2.5.0.jar $HIVE_HOME/lib/

         cp $HBASE_HOME/lib/guava-12.0.1.jar $HIVE_HOME/lib/

并删除了,原HIVE_HOME/lib/下的guava-14.0.1.jar。

6.上传jdbc jar包

         默认hive使用Derby数据库存放元数据,并且也集成了Derby数据库及连接驱动jar包,但此处我们换成了MySQL作为数据库,所以还必须得有MySQL的JDBC驱动包。

          由于之前系统已经有jdbc jar包,且在cd /usr/share/java目录下,直接将驱动包复制到$HIVE_HOME/lib下:cp mysql-connector-java-5.1.17.jar $HIVE_HOME/lib        

 7.安装并配置MySQL

          由于已经安装好mysql,故可以直接使用。

启动hive在进行检测的时候 ,系统提示:

经查阅资料,发现hive-1.2.1与hbase-1.0.0有版本不兼容的问题,需要重新编译hive-hbase-handle-1.2.1.jar。

8.编译hive-hbase-handle-1.2.1.jar

(1)下载hive-1.2.1源码

在虚拟机中,用wget命令在http://www-eu.apache.org/dist/hive/中下载apache-hive-1.2.1-src.tar.gz,下载好后,把下载好的文件复制到Windows系统中。

(2)在Windows系统中,用eclipse建立编译工程,名称随便,普通Java project,这里以hivehbase为名。

(3)将hive源码中的hbase-hadler部分导入到编译项目中

选择src右击import-->General-->FileSytem,下一步

找到下载解压的hive源码目录,找到hbase-hadler目录,在scr中选择java目录,确认后保证包名以org开头

 

(4)然后开始给eclipse项目下,创建一个Referenced Libraries目录,加入相关的jar包,确保顺利通过编译,根据hive的版本,导入的jar包也会有所差异,直到项目没有小红叉。

需要引入的jar包,如下图所示,这些包在虚拟机中的/opt/hive-1.2.1/lib和/opt/hbase-1.0.0目录下都有,直接复制拷贝过来即可,注意的是,jar的版本号会根据你所使用的hadoop、hbase、hive版本号,有所变化。

具体需要引入的jar包如下图:

(5)编译打包

选择项目src目录,右击Export-->Java-->JAR file-->Next,选择项目下的src,并设置导出路径,名称可以直接写作hive-hbase-handler-1.2.1.jar其他默认,Finish后即可。

然后把导出的hive-hbase-handler-1.2.1.jar 包放入hive-1.2.1安装路径的lib下,覆盖原来的包。此时,hive-1.2.1安装成功。

二.验证hive和hbase的整合

(1)开始时:

hive为空

hbase为空

(2)执行

(3)对比发生变化

hbase显示新建表xyz

hive显示新建表hbase_table_1

(4)通过hbase添加数据

在hbase中插入一条记录

分别查看hbase和hive表发生的变化:

  1. hbase变化

2.hive变化

.Hive网络接口(Web
UI)

1.查看hive-site.xml中有关hwi的内容,默认是

将hive.hwi.war.file的值修改为/lib/hive-hwi-1.2.1.war

2.下载hive-1.2.1源码包

wget http://www-us.apache.org/dist/hive/hive-1.2.1/ apache-hive-1.2.1-src.tar.gz

tar -zxvf apache-hive-1.2.1-src.tar.gz

cd apache-hive-1.2.1-src

cd hwi/web

zip hive-hwi-1.2.1.zip ./*

再更改后缀名为war,复制到HIVE_HOME/lib/

mv hive-hwi-1.2.1.zip hive-hwi-1.2.1.war

mv hive-hwi-1.2.1.war $HIVE_HOME/lib

3.拷贝tools包

cp /usr/java/jdk1.7.0_51/lib/tools.jar /opt/hive-1.2.1/lib

如果不进行此步骤,将无法启动界面。

配置完成后,开启服务:

并且可以查看到HIVE的网页界面:

.Hivejdbc接口

vi
$HIVE_HOME/conf/hive-site.xml

将上标签修改为:

<property>

<name>hive.server2.thrift.bind.host</name>

<value>172.16.0.147</value>

<description>Bind
host on which to run the HiveServer2 Thrift interface.

Can be overridden by
setting $HIVE_SERVER2_THRIFT_BIND_HOST</description>

</property>

测试hiveserver2,出现:

修改hadoop 配置文件/opt/hadoop-2.4.1/etc/hadoop里的core-site.xml,加入

<property>

<name>hadoop.proxyuser.root.hosts</name>

<value>*</value>

</property>

<property>

<name>hadoop.proxyuser.root.groups</name>

<value>*</value>

</property>

重启hadoop

将hadoop退出安全模式:

hadoop dfsadmin
-safemode leave

重新启动:

启动成功!

遇到的问题一:

解决方案:删除/opt/hive-2.0.0/lib/log4j-slf4j-impl-2.4.1.jar

遇到的问题二:

解决方案:删除/opt/hive-2.0.0/lib/hive-jdbc-2.0.0-standalone.jar

遇到的问题三:

查阅http://blog.csdn.net/zwx19921215/article/details/42776589后,采用如下方案:

1.查看hive-site.xml配置,会看到配置值含有"system:java.io.tmpdir"的配置项

2.新建文件夹/opt/hive-1.0.1/iotmp

3.将含有"system:java.io.tmpdir"的配置项的值修改为如上地址

遇到的问题四:

默认的是Derby类型,但是只支持单用户,删除/root/metastore_db,即可。

遇到的问题五:

hadoop下的jline版本较老,用hive中的jline将其替换

cp /opt/hive-1.2.1/lib/jline-2.12.jar
/opt/hadoop-2.4.1/share/hadoop/yarn/lib/

为防止误删,将老版本jline改名

mv
/opt/hadoop-2.4.1/share/hadoop/yarn/lib/jline-0.9.94.jar
/opt/hadoop-2.4.1/share/hadoop/yarn/lib/old-jline-0.9.94.jar

遇到的问题六:

但是有提示metastore.local不存在,解决方案参考下图:

经测试:

注:此项是配置在hive-site.xml中,解决报错之后就没有在之前的安装步骤写入此项。

hive-1.2.1安装步骤的更多相关文章

  1. Hive的架构原理&Hive的安装步骤

    Hive架构图 元数据默认数据库是:Derby.开发使用MySQL Hive如何将SQL语句翻译成MapReduce的? 1.使用SQL解析器解析SQL语句 2.使用编译器进行编译逻辑 3.使用优化器 ...

  2. Hive使用与安装步骤

    1.Hive安装与配置 Hive官网:https://hive.apache.org/ 1. 安装文件下载 从Apache官网下载安装文件 http://mirror.bit.edu.cn/apach ...

  3. hadoop入门学习教程--DKHadoop完整安装步骤

    使用hadoop版本是DKH标准三节点发行版,DKHadoop版本的易用性比较好,环境部署要简单的多,参考此篇安装前请先下载DKHadoop版本,网盘链接:https://pan.baidu.com/ ...

  4. 如何搭建SVN服务器,详细安装步骤。

    SVN服务器端安装 下载: VisualSVN是一款图形化svn服务器.官网 http://www.visualsvn.com/server/ 下载地址: http://www.visualsvn.c ...

  5. Hive的三种安装方式(内嵌模式,本地模式远程模式)

    一.安装模式介绍:     Hive官网上介绍了Hive的3种安装方式,分别对应不同的应用场景.     1.内嵌模式(元数据保村在内嵌的derby种,允许一个会话链接,尝试多个会话链接时会报错)   ...

  6. arcgis10.2.2桌面版具体的安装步骤过程

    先声明一下,这里的截图虽说是ArcGIS10.1版本的,但是安装步骤是对的,本人用ArcGIS10.2.2软件测试成功安装上 一.ArcGIS许可证管理器安装 1.在软件包文件夹license man ...

  7. LoadRunner 11 安装步骤

    loadrunner 安装步骤: LoadRunner11下载:  在网上可以搜索到,在这个就不提供了. LoadRunner11原理: 破解方法和以前版本相同,我用的是LR8.0的破解文件,同样实用 ...

  8. MySQL安装步骤

    MySQL安装步骤 1. 下载MySQL Community Server 5.6.21,注意选择系统类型(32位/64位) 2. 解压MySQL压缩包 将以下载的MySQL压缩包解压到自定义目录下. ...

  9. Java开发工具安装步骤内容如下

    Java开发工具安装步骤内容如下 安装 开发工具 STS 链接下载网址 eclipse 链接下载网址 JDK安装 jdk链接下载地址 Marven环境 marven链接下载地址 Tomcat tomc ...

随机推荐

  1. [置顶] C语言中各种数据类型的长度 sizeof char, short, int, long, long long

    这些数据类型的sizeof具体长度依赖于编译器和操作系统(32-bit or 64-bit) 1: 首先,参见c99标准 标准中没有定义这些数据类型的长度,而是定义了这些数据类型能表达的大小范围的最小 ...

  2. 维吉尼亚密码java完整版

    package cn.longxuzi; import org.junit.Test; public class Chi_SquareUtils { private static final ICUt ...

  3. Android学习笔记(三)Android开发环境的搭建

    一.配置JAVA环境 二.配置Android开发环境 可以安装adt-bundle-windows,该压缩包一般自带Eclipse.或者安装Android Studio,要注意SDK的版本是否符合要求 ...

  4. Android进程回收的一些知识

    关于OOM_ADJ说明: Android 进程易被杀死的情形: 参考:Android进程保活招式大全

  5. Socket编程中 setsockopt的作用

    功能描述: 获取或者设置与某个套接字关联的选 项.选项可能存在于多层协议中,它们总会出现在最上面的套接字层.当操作套接字选项时,选项位于的层和选项的名称必须给出.为了操作套接字层的选项,应该 将层的值 ...

  6. 前端——CSS笔记

    CSS全称为“层叠样式表 (Cascading Style Sheets)”,它主要是用于定义HTML内容在浏览器内的显示样式,如文字大小.颜色.字体加粗等. p{ font-size:12px; c ...

  7. Elasticsearch安装ik中文分词插件(四)

    一.IK简介 IK Analyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包.从2006年12月推出1.0版开始, IKAnalyzer已经推出了4个大版本.最初,它是以开源项目Lu ...

  8. Amabri添加YDB报错

    点部署直接出现如下图: 通过查看日志: tail -f /var/log/ambari-server/ambari-server.log java.lang.RuntimeException: Una ...

  9. 循序渐进看Java web日志跟踪(1)-Tomcat 日志追踪与配置

    日志,是软件运行过程中,对各类操作中重要信息的记录. 日志跟踪,不管对于怎么样的项目来说,都是非常重要的一部分,它关系到项目后期的维护和排错,起着举足轻重的作用.项目开发过程中,对日志的记录规则,也将 ...

  10. HOJ———丢手绢

    hide handkerchief Time Limit: 10000/3000 MS (Java/Others) Memory Limit: 32768/32768 K (Java/Others) ...