上传hive软件包到任意节点

一、安装hive软件

  解压缩hive软件包到/usr/local/hadoop/目录下

     

  重命名hive文件夹

     

  在/etc/profile文件中添加环境变量

      export HIVE_HOME=/usr/local/hadoop/hive

      export PATH=$HIVE_HOME/bin:$PATH

  运行命令source /etc/profile

 

   使用mysql作为数据库时需要安装mysql

   在mysql中创建hive用户,数据库等

     create user 'hive' identified by 'hive';
     create database hive;
     grant all on hive.* to hive@'%'  identified by 'hive';
     grant all on hive.* to hive@'localhost'  identified by 'hive';
     flush privileges;

   退出mysql

   拷贝mysql-connector-java.jar到hive目录下lib/中

二、修改配置文件

   修改hive目录中conf/hive-default.xml.template文件为conf/hive-site.xml

    在conf目录中修改配置文件hive-site.xml

      (使用默认数据库)

     

      <property>
        <name>hive.exec.local.scratchdir</name>
        <value>/home/hive/iotmp</value>
        <description>Local scratch space for Hive jobs</description>
      </property>
      <property>
        <name>hive.downloaded.resources.dir</name>
        <value>/home/hive/iotmp</value>
        <description>Temporary local directory for added resources in the remote file system.</description>
      </property>
      <property>
        <name>hive.querylog.location</name>
        <value>/home/hive/iotmp</value>
        <description>Location of Hive run time structured log file</description>
      </property>

      <property>
        <name>hive.exec.local.scratchdir</name>
        <value>/home/hive/iotmp</value>
        <description>Local scratch space for Hive jobs</description>
      </property>

     (mysql数据库)
     

      <property> 
         <name>javax.jdo.option.ConnectionURL </name> 
         <value>jdbc:mysql://localhost:3306/hive </value> 
      </property> 
 
      <property> 
         <name>javax.jdo.option.ConnectionDriverName </name> 
         <value>com.mysql.jdbc.Driver </value> 
      </property>
 
      <property> 
         <name>javax.jdo.option.ConnectionPassword </name> 
         <value>hive </value> 
      </property>

      <property>
        <name>hive.exec.local.scratchdir</name>
        <value>/home/hive/iotmp</value>
        <description>Local scratch space for Hive jobs</description>
      </property>
      

      <property>
        <name>hive.downloaded.resources.dir</name>
        <value>/home/hive/iotmp</value>
        <description>Temporary local directory for added resources in the remote file system.</description>
      </property>
      <property>
        <name>hive.querylog.location</name>
        <value>/home/hive/iotmp</value>
        <description>Location of Hive run time structured log file</description>
      </property>

      <property>
        <name>hive.exec.local.scratchdir</name>
        <value>/home/hive/iotmp</value>
        <description>Local scratch space for Hive jobs</description>
      </property>

 

 

三、运行hive

  输入命令格式化数据库

    默认数据库  schematool -initSchema -dbType derby

    mysql数据库 schematool -initSchema -dbType mysql

  启动hive

      输入命令hive

      

hive安装完毕

  

hadoop+hive+spark搭建(二)的更多相关文章

  1. hadoop+hive+spark搭建(一)

    1.准备三台虚拟机 2.hadoop+hive+spark+java软件包 传送门:Hadoop官网 Hive官网 Spark官网      一.修改主机名,hosts文件 主机名修改 hostnam ...

  2. hadoop+hive+spark搭建(三)

    一.spark安装   因为之前安装过hadoop,所以,在“Choose a package type”后面需要选择“Pre-build with user-provided Hadoop [can ...

  3. 大数据学习系列之四 ----- Hadoop+Hive环境搭建图文详解(单机)

    引言 在大数据学习系列之一 ----- Hadoop环境搭建(单机) 成功的搭建了Hadoop的环境,在大数据学习系列之二 ----- HBase环境搭建(单机)成功搭建了HBase的环境以及相关使用 ...

  4. hadoop和spark搭建记录

    因玩票需要,使用三台搭建spark(192.168.1.10,192.168.1.11,192.168.1.12),又因spark构建在hadoop之上,那么就需要先搭建hadoop.历经一个两个下午 ...

  5. 了解大数据的技术生态系统 Hadoop,hive,spark(转载)

    首先给出原文链接: 原文链接 大数据本身是一个很宽泛的概念,Hadoop生态圈(或者泛生态圈)基本上都是为了处理超过单机尺度的数据处理而诞生的.你能够把它比作一个厨房所以须要的各种工具. 锅碗瓢盆,各 ...

  6. 分别使用Hadoop和Spark实现二次排序

    零.序(注意本部分与标题无太大关系,可直接调至第一部分) 既然没用为啥会有序?原因不想再开一篇文章,来抒发点什么感想或者计划了,就在这里写点好了: 前些日子买了几本书,打算学习和研究大数据方面的知识, ...

  7. 一文教你看懂大数据的技术生态圈:Hadoop,hive,spark

    转自:https://www.cnblogs.com/reed/p/7730360.html 大数据本身是个很宽泛的概念,Hadoop生态圈(或者泛生态圈)基本上都是为了处理超过单机尺度的数据处理而诞 ...

  8. 配置Hadoop,hive,spark,hbase ————待整理

    五一一天在家搭建好了集群,要上班了来不及整理,待下周周末有时间好好整理整理一个完整的搭建hadoop生态圈的集群的系列 若出现license information(license not accep ...

  9. Hadoop集群搭建(二)~centos6.8的安装

    这篇记录在创建好的虚拟机中安装centos6.8 1,在虚拟机界面-选择编辑虚拟机设置 2,CD/DVD,选择使用ISO映像文件,找到安装包的位置,确定 3,回到虚拟机的界面,开启此虚拟机 4,安装 ...

随机推荐

  1. python爬虫(四)_urllib2库的基本使用

    本篇我们将开始学习如何进行网页抓取,更多内容请参考:python学习指南 urllib2库的基本使用 所谓网页抓取,就是把URL地址中指定的网络资源从网络流中读取出来,保存到本地.在Python中有很 ...

  2. elasticsearch 学习笔记

    基本概念 集群和节点的概念1.集群是由节点组成的2.每个集群都有唯一的名字默认是elasticsearch3.cluster.name: niubiwali //集群的名字很重要因为每个节点只是集群的 ...

  3. windows 怎样查看port占用情况

    開始--执行--cmd 进入命令提示符 输入netstat -ano 就可以看到全部连接的PID 之后在任务管理器中找到这个PID所相应的程序假设任务管理器中没有PID这一项,能够在任务管理器中选&q ...

  4. startup alter.log spfile.ora

    SQL> select * from v$version where rownum=1; BANNER --------------------------------------------- ...

  5. 自学Zabbix3.9.2-模板Templates-linking/unlinking

    自学Zabbix3.9.2-模板Templates-linking/unlinking HOST链接模板之后,便继承了模板里定义的item,trigger等等,使用这个方法,配置zabbix监控会减少 ...

  6. iOS设计模式之懒加载

    一.为什么要懒加载? 答: iPhone设备内存有限,如果在程序在启动后就一次性加载将来会用到的所有资源,那么久可能会耗尽iOS设备的内存.这些资源例如大量的数据,图片,音频,过多的控件等. 二.懒加 ...

  7. Java中数据类型及其之间的转换(转)

    Java中数据类型及其之间的转换 基本的数据类型 基本类型有以下四种:1)int长度数据类型有:byte(8bits).short(16bits).int(32bits).long(64bits).2 ...

  8. 同时只允许Count个线程访问同一块区域的实现方式

    转载请注明出处. 好吧,后来才发现有Semaphore和SemaphoreSlim这两个类. 以前的答案: 最近.Net项目中用到了网页截图功能,这个截图功能是类似后台开了一个IE浏览器默默加载某个网 ...

  9. Mysql 5.6到5.7的mysql.user改变

    很久没配置mysql.昨天在centos服务器上装了个mysql,desc user的时候,找不到password column,看了官方API 才知道原来的password已经修改为authenti ...

  10. Java之线程安全中的三种同步方式

    一个程序在运行起来时,会转换为进程,通常含有多个线程. 通常情况下,一个进程中的比较耗时的操作(如长循环.文件上传下载.网络资源获取等),往往会采用多线程来解决. 比如,现实生活中,银行取钱问题.火车 ...