参考:https://cwiki.apache.org/confluence/display/Hive/GettingStarted

1.下载hive安装包
    到apache官网或者其它地方下载hive压缩包,然后解压到/usr/local/hive-2.0.0


2.依赖
    hive依赖以下内容:
1)java 1.7或者更高版本
2)hadoop2.x,hadoop1.x(只支持hive1)
3)需要$HADOOP_HOME或者$HADOOP_PREFIX变量

3.配置元数据库
    hive的元数据可以三种方式存储。参考:http://duguyiren3476.iteye.com/blog/1632868
这里选择以derby来存储元数据。也可以用mysql或者postgreySql来存储
(1)使用内置的derby数据库做为元数据库
    使用derby的缺点是同一时刻只能有一个hive启动。并且在目录创建元数据库(metastore_db),十分的杂乱。
    首先修改conf/hive-site.xml为如下内容:
  1. <?xml version="1.0" encoding="UTF-8" standalone="no"?>
  2. <?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
  3. nfiguration>
  4. <property>
  5. <name>javax.jdo.option.ConnectionURL</name>
  6. <value>jdbc:derby:;databaseName=metastore_db;create=true</value>
  7. </property>
  8. <property>
  9. <name>javax.jdo.option.ConnectionDriverName</name>
  10. <value>org.apache.derby.jdbc.EmbeddedDriver</value>
  11. </property>
  12. <property>
  13. <name>hive.metastore.local</name>
  14. <value>true</value>
  15. </property>
  16. <property>
  17. <name>hive.metastore.warehouse.dir</name>
  18. <value>/user/hive/warehouse</value>
  19. </property>
  20. </configuration>
然后删除$HIVE_HOME下的metastore_db文件夹
  1. [root@node1 hive-2.0.0]# rm -rf metastore_db
然后初始化元数据库
  1. [root@node1 hive-2.0.0]# schematool -initSchema -dbType derby
测试:
  1. [root@node1 hive-2.0.0]# hive
  2. hive> show tables;
  3. OK
  4. Time taken: 1.154 seconds


(2)以数据库做为元数据库
  1. <configuration>
  2. <property>
  3. <name>javax.jdo.option.ConnectionURL</name>
  4. <value>jdbc:mysql://yangxw:3306/hive_meta</value>
  5. </property>
  6. <property>
  7. <name>javax.jdo.option.ConnectionDriverName</name>
  8. <value>com.mysql.jdbc.Driver</value>
  9. </property>
  10. <property>
  11. <name>hive.metastore.local</name>
  12. <value>false</value>
  13. </property>
  14. <property>
  15. <name>hive.metastore.warehouse.dir</name>
  16. <value>/user/hive/warehouse</value>
  17. </property>
  18. <property>
  19. <name>javax.jdo.option.ConnectionPassword</name>
  20. <value>root</value>
  21. <description>password to use against metastore database</description>
  22. </property>
  23. <property>
  24. <name>javax.jdo.option.ConnectionUserName</name>
  25. <value>root</value>
  26. <description>Username to use against metastore database</description>
  27. </property>
  28. <property>
  29. <name>hive.metastore.uris</name>
  30. <value>thrift://node1:9083</value>
  31. </property>
  32. </configuration>
如果想把客户端和服务端分开,把蓝色背景的单独放在客户端hive-site.xml中即可

然后执行初始化元数据库:
schematool -dbType mysql -initSchema

开启元数据服务(可选):
hive --service metastore -p 9083
后台启用服务执行:
 nohup bin/hive --service metastore -p 9083 >.metastore_log &
然后在客户端执行bin/hiv即可


关于metastore服务:
不启动metasotre服务的话,各个hive客户端分别连接到mysql数据库;启动后,客户端连接到metastore服务器,metastore服务器再连接mysql;所以一般情况下没必要启动metastore服务。CDH使用此种方式,因此必须启动metasotre服务.如果配置了:thrift://node1:9083 就必须启动metastore.
hive server是给hive之外的客户端用的,比如java。一般也不用启动。





























安装HIVE的更多相关文章

  1. 安装Hive(独立模式 使用mysql连接)

    安装Hive(独立模式 使用mysql连接) 1.默认安装了java+hadoop 2.下载对应hadoop版本的安装包 3.解压安装包 tar zxvf apache-hive-1.2.1-bin. ...

  2. 附录C 编译安装Hive

    如果需要直接安装Hive,可以跳过编译步骤,从Hive的官网下载编译好的安装包,下载地址为http://hive.apache.org/downloads.html . C.1  编译Hive C.1 ...

  3. 一步一步安装hive

    安装hive 1.下载hive-0.11.0.tar.gz,解压; 2.下载mysql-connector-java-5.1.29-bin.jar并放到hive/lib/下: 3.配置hive/con ...

  4. ubuntu安装hive

    1.安装mysql,可参考下面链接 http://www.cnblogs.com/liuchangchun/p/4099003.html 2.安装hive,之前,先在mysql上创建一个hive,数据 ...

  5. 说说单节点集群里安装hive、3\5节点集群里安装hive的诡异区别

    这几天,无意之间,被这件事情给迷惑,不解!先暂时贴于此,以后再解决! 详细问题如下: 在hive的安装目录下(我这里是 /home/hadoop/app/hive-1.2.1),hive的安装目录的l ...

  6. Ubuntu16.04下安装Hive

    上一篇博客我们已经说过了要如何安装Hadoop,别忘记了我们的目的是安装Hive.所以这篇博客,我就来介绍一下如何安装Hive. 一.环境准备 (1)Vmware (2)  Ubuntu 16.04 ...

  7. 安装Hive过程中报错:Unsupported major.minor version 52.0

    在安装hive的过程中,我觉得我是按照教程走的,但是在启动hive时还是报错了,错误如下 Exception in thread "main" java.lang.Unsuppor ...

  8. hadoop安装hive及java调用hive

     1.安装hive 在安装hive前,请确保已经安装好了hadoop,如未安装,请参考centoos 安装hadoop集群进行安装: 1.1.下载,解压 下载hive2.1.1:http://mirr ...

  9. docker安装hive笔记

    前两篇文章介绍了docker的基本命令如何安装hadoop 那么大家会比较了解docker的基本语法的安装过程.那么咱们今天来一起安装一下hive. 安装 1.下载gitHub,地址:https:// ...

  10. CDH5上安装Hive,HBase,Impala,Spark等服务

    Apache Hadoop的服务的部署比較繁琐.须要手工编辑配置文件.下载依赖包等.Cloudera Manager以GUI的方式的管理CDH集群,提供向导式的安装步骤.因为须要对Hive,HBase ...

随机推荐

  1. C# 对象的深复制和浅复制

    2019年第一篇博客,好吧,又大了一岁了,继续加油吧. 正文: C# 中的对象,众所周知是引用类型,那么如何复制对象Object呢,我们来看看下面这段代码: public class User { p ...

  2. Linux基础命令之文件和目录操作(一)

    pwd print working directory的缩写,作用是显示当前工作目录的绝对路径,一般进行频繁切换路径时使用. -L 显示逻辑路径(或略软链接文件),不常用. -P 显示物理路径,不常用 ...

  3. 关于vue中mockjs的使用

    使用vue的时候,后台可能不能及时作出接口,那么就需要我们前端自己模拟数据,使用mockjs可以进行模拟数据. 首先安装mockjs,cnpm install mockjs --save-dev: 其 ...

  4. 关于Vue的组件的通用性问题

    在项目中,经常会有需求让我们把很多通用性的功能写成一个模板,然后根据不同的应用场景传入不同的参数来完成某种功能 但是在很多时候,其实并不是一个模板就能完成所有的功能的 这就需要分类写组件了,但是需求方 ...

  5. HTML表格-table

    表格 表格由 <table> 标签来定义. 每个表格均有若干行(由 <tr> 标签定义),每行被分割为若干单元格(由 <td> 标签定义). 字母 td 指表格数据 ...

  6. Apache Flume简介及安装部署

    概述 Flume 是 Cloudera 提供的一个高可用的,高可靠的,分布式的海量日志采集.聚合和传输的软件. Flume 的核心是把数据从数据源(source)收集过来,再将收集到的数据送到指定的目 ...

  7. xargs命令的使用过程中一个小领悟:管道与xargs的差别

    对xargs的使用总是比较模糊,大概的理解为:通道中,上一个命令的标准输出逐行作为下一个命令的参数 例如 find /var/temp* | xargs rm -r 功效:找出/var/中所有temp ...

  8. Luogu P1802 5倍经验日_KEY

    题目传送门 ·背包 这可以说是一道背包的变形. 首先需要考虑到的是如何将ta转换为一个正常 的背包. 这些数据有一个让我们都十分不爽的地方就是有两个值. 所以我们就设置一个基准值,将失败的经验值当做基 ...

  9. LeetCode: 63. Unique Paths II(Medium)

    1. 原题链接 https://leetcode.com/problems/unique-paths-ii/description/

  10. 面试遇到的订单表sql的解决方案

    对于以下需求:用户表:users (user_id  int)订单表:order_tb(user_id int, or_time  date, or_money double)求以下用户:一月下过单, ...