一、mysql安装

在配置Hive之前一般都需要安装和配置MySQL,因为Hive为了能操作HDFS上的数据集,那么他需要知道数据的切分格式,如行列分隔符,存储类型,是否压缩,数据的存储地址等信息。

为了方便以后操作所以他需要将这些信息通过一张表存储起来,然后将这张表(元数据)存储到mysql中。为了啥存储到mysql里(实际是远程mysql),因为hive本身就是一个解释器,所以他不存储数据,可以参考上一篇文章[MySQL安装]进行安装(https://www.cnblogs.com/ruo1101/p/17470047.html "MySQL安装")

二、Hive的安装与启动

1.安装Hive

1.1 下载Hive

官方下载地址:https://archive.apache.org/dist/hive/

1.2 上传文件到hadoop集群

将准备好Hive文件安装包,将压缩包上传到到事先准备好的目录:/opt/software

再将压缩文件mysql-connector-java-5.1.48.jar上传到目录:/opt/software

1.3 将压缩包解压到文件目录

进入hive压缩文件所在目录:/opt/software,再执行以下代码解压hive文件到文件目录:/opt/module

tar -zxvf apache-hive-3.1.3-bin.tar.gz -C /opt/module

将目录(/opt/module/apache-hive-3.1.3-bin)重命名为(/opt/module/hive)

mv /opt/module/apache-hive-3.1.3-bin /opt/module/hive

再将压缩文件mysql-connector-java-5.1.48.jar解压到目录:/opt/module/hive/lib

cp mysql-connector-java-5.1.48.jar /opt/module/hive/lib
1.4 修改Hive配置

需要使用root权限

进入hive配置目录:/opt/module/hive/conf/

并且对hive配置文件(hive-deafule.xml.template)进行重命名

cp /opt/module/hive/conf/hive-deafule.xml.template hive-site.xml
或者
mv /

进入hive目录对文件hive-site.xml进行配置

或者直接创建一个配置文件hive-site.xml

hive-deafule.xml.template中的所需配置复制到hive-site.xml并针对修改其属性

修改hive-site.xml文件属性

<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?><!--
Licensed to the Apache Software Foundation (ASF) under one or more
contributor license agreements. See the NOTICE file distributed with
this work for additional information regarding copyright ownership.
The ASF licenses this file to You under the Apache License, Version 2.0
(the "License"); you may not use this file except in compliance with
the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software
distributed under the License is distributed on an "AS IS" BASIS,
WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
See the License for the specific language governing permissions and
limitations under the License.
--><configuration> <!-- WARNING!!! This file is auto generated for documentation purposes ONLY! -->
<!-- WARNING!!! Any changes you make to this file will be ignored by Hive. -->
<!-- WARNING!!! You must make your changes in hive-site.xml instead. -->
<!-- Hive Execution Parameters -->
<property>
<!-- 链接的URL -->
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://hadoop102:3306/metastore?useSSL=false</value>
<description>
JDBC connect string for a JDBC metastore.
To use SSL to encrypt/authenticate the connection, provide database-specific SSL flag in the connection URL.
For example, jdbc:postgresql://myhost/db?ssl=true for postgres database.
</description>
</property> <!-- 使用的驱动 -->
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.cj.jdbc.Driver</value>
<description>Driver class name for a JDBC metastore</description>
</property> <!-- 用户名 -->
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
<description>Username to use against metastore database</description>
</property> <!-- 密码 -->
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>123456</value>
<description>password to use against metastore database</description>
</property> <!-- 元数据存储版本验证 -->
<property>
<name>hive.metastore.schema.varification</name>
<value>false</value>
<description>
Enforce metastore schema version consistency.
True: Verify that version information stored in is compatible with one from Hive jars. Also disable automatic
schema migration attempt. Users are required to manually migrate schema after Hive upgrade which ensures
proper metastore schema migration. (Default)
False: Warn if the version information stored in metastore doesn't match with one from in Hive jars.
</description>
</property> <!-- 元数据存储权限 -->
<property>
<name>hive.metastore.schema.verification.record.version</name>
<value>false</value>
<description>
When true the current MS version is recorded in the VERSION table. If this is disabled and verification is
enabled the MS will be unusable.
</description>
</property> <!-- Hive在hdfs中的工作目录 -->
<property>
<name>hive.metastore.warehouse.dir</name>
<value>/user/hive/warehouse</value>
<description>location of default database for the warehouse</description>
</property>
</configuration>
1.5 修改环境变量

需要root权限

进入环境变量目录文件:/etc/profile.d/my_env.sh

vim /etc/profile.d/my_env.sh

追加写入以下内容:

#Hive
export HIVE_HOME=/opt/module/hive
export PATH=$PAH:$HIVE_HOME/bin

刷新环境变量

source /etc/profile
1.6 解决jar冲突问题

Hive由日志slf4j的配置,但是我们的yarn自己也有,两者会冲突。

需要root权限

先刷新环境变量,再执行以下代码

mv $HIVE_HOME/lib/log4j-slf4j-impl-2.10.0.jar $HIVE_HOME/lib/log4j-slf4j-impl-2.10.0.jar.bak

解决版本对应问题

mv $HIVE_HOME/lib/guava-19.0.jar $HIVE_HOME/lib/guava-19.0.jar.bak
cp /opt/module/hadoop-3.1.3/share/hadoop/common/lib/guava-27.0-jar /opt/module/hive/lib/
1.7 初始化Hive元数据仓库
schematool -initSchema -dbType mysql -verbose

保证数据库已创建,数据名与hive配置中的数据库保持一致。

mysql所在集群机器,启动mysql【hadoop102】,mysql与yarn同在一台机器。

检查mysql数据库是否存在,是否初始化过,如果已经初始化过则先将数据库删除,重新初始化。

2. 启动Hive

2.1 启动hadoop集群

Hive的启动依赖于hadoop的启动,必须先启动hadoop(dfs以及yarn).

2.2 启动hive【hadoop10】
hive # 启动hive命令

一般报错即为dfs安全模式的原因,关闭安全模式即可: hdfs dfsadmin -safemode leave

用root用户启动报错(权限有问题)如下:

chown: changing ownership of '/tmp': Permission denied. user=root is not the owner of inode=/tmp

需用使用 export HADOOP_USER_NAME=普通用户

然后使用hadoop fs -chmod -R 777 /tmp

再次启动hive即可

2.3 验证安装环境
show databases

3. Hive的常用基本操作

3.1 查看当前存在数据库

show databases;

3.2 选择一个库

use 数据库名;

3.3 查看当前库的表

show tables;

3.4 查看一个表

desc 表名

3.5 显示表头,数据库名

在hive中设置参数,临时生效,退出hive后失效

# 显示数据库名,该参数默认值为false

set hive.cli.print.current.db=true;

# 显示列名,该设置会显示表名.列名,默认值为false

set hive.cli.print.header=true;

# 不显示表名,默认值为true

set hive.resultset.use.unique.column.names=false;

更改hive-site.xml使配置永久生效

<property>
<name>hive.cli.print.header</name>
<value>true</value>
<description>是否打印表头,默认值为false,即不打印</description>
</property> <property>
<name>hive.cli.print.current.db</name>
<value>true</value>
<description>是否显示数据库名,默认值为false,即不显示</description>
</property> <property>
<name>hive.resultset.use.unique.column.names</name>
<value>false</value>
<description>表头中是否显示表名,默认值为true,即显示</description>
</property>

4 案列操作

新建一个表

create table test (id int,name string);

插入一条数据

insert into test values(1,'RuoZoe');

Hive安装与启动的更多相关文章

  1. 【大数据系列】hive安装及启动

    一.安装好jdk和hadoop 二.下载apache-hive https://mirrors.tuna.tsinghua.edu.cn/apache/hive/hive-2.3.0/ 三.解压到安装 ...

  2. Hive安装配置指北(含Hive Metastore详解)

    个人主页: http://www.linbingdong.com 本文介绍Hive安装配置的整个过程,包括MySQL.Hive及Metastore的安装配置,并分析了Metastore三种配置方式的区 ...

  3. hive安装--设置mysql为远端metastore

    作业任务:安装Hive,有条件的同学可考虑用mysql作为元数据库安装(有一定难度,可以获得老师极度赞赏),安装完成后做简单SQL操作测试.将安装过程和最后测试成功的界面抓图提交 . 已有的当前虚拟机 ...

  4. Hive安装与部署集成mysql

    前提条件: 1.一台配置好hadoop环境的虚拟机.hadoop环境搭建教程:稍后补充 2.存在hadoop账户.不存在的可以新建hadoop账户安装配置hadoop. 安装教程: 一.Mysql安装 ...

  5. 【转】 hive安装配置及遇到的问题解决

    原文来自: http://blog.csdn.net/songchunhong/article/details/51423823 1.下载Hive安装包apache-hive-1.2.1-bin.ta ...

  6. HIVE安装配置

    Hive简介 Hive 基本介绍 Hive 实现机制 Hive 数据模型 Hive 如何转换成MapReduce Hive 与其他数据库的区别 以上详见:https://chu888chu888.gi ...

  7. 十三、Hadoop学习笔记————Hive安装先决条件以及部署

    内嵌模式,存储于本地的Derby数据库中,只支持单用户 本地模式,支持多用户多会话,例如存入mysql 下载解压hive后,进到conf路径,将模板拷贝 出现该错误表示权限不够 该目录未找到 新建一个 ...

  8. hive安装详解

    1.安装MYSQL simon@simon-Lenovo-G400:~$ sudo apt-get install mysql-server simon@simon-Lenovo-G400:~$ su ...

  9. [hive] hive 安装、配置

    一.hive安装 1.官网下载 1.2.2版本 http://apache.fayea.com/hive/hive-1.2.2/ 2. 解压,此处目录为 /opt/hadoop/hive-1.2.2 ...

  10. hive 安装 和基本使用

    hive是什么: hive是一个数据仓库,hive不是一个数据库,hive 不没有自己的数据,hive的数据存在hdfs 中,hive 依赖一个关系型数据库来存储 自己在 hdfs 中的数据的映射关系 ...

随机推荐

  1. 在Linux上安装redis7

    1.检测虚拟机环境 1.1 bit检测命令:getconf LONG_BIT(建议使用64bit做开发) 1.2 gcc环境检测:gcc -v 如果不具备gcc环境,则使用yum -y install ...

  2. OpenFec介绍

    官网: http://openfec.org/accueil.html   1.提供的编解码器 Reed-Solomon stable codec over GF(28)                ...

  3. TensorFlow - 框架实现中的三种 Graph

    文章目录 TensorFlow - 框架实现中的三种 Graph 1. Graph 2. GraphDef 3. MetaGraph 4. Checkpoint 5. 总结 TensorFlow - ...

  4. 数据结构(DataStructure)-02

    数据结构-02 **数据结构-01回顾** **数据结构-02笔记** **作业讲解** **链表作业题一** **链表作业题二** **链表作业题三** **线性表 - 栈(LIFO)** **线性 ...

  5. Go坑:time.After可能导致的内存泄露问题分析

    Go 中 time.After 可能导致的内存泄露 一.Time 包中定时器函数 go v1.20.4 定时函数:NewTicker,NewTimer 和 time.After 介绍 time 包中有 ...

  6. vCenter报错:Log Disk Exhaustion on 10

    vCenter报错:Log Disk Exhaustion on 10 1.问题现象: 巡检时发现 vCenter Server 中,错误显示为:Log Disk Exhaustion on 10(字 ...

  7. Latex-beamer的教程

    Beamer头文件 Latex是一个非常精确且高效的排版工具,其中的beamer作为一个非常强大的模块承担着PPT任务的排版 首先引入头文件来开始: \documentclass{beamer} %h ...

  8. js数组和字符串方法

    一.数组方法 1.1.可以改变原数组 var arr = [10, 20, 30, 40, 50, 55]; // 1. **** push() --- 在数组的最后添加一项内容 // var ret ...

  9. 2021-07-27:给定一个数组arr,长度为N,arr中的值只有1,2,3三种。arr[i] == 1,代表汉诺塔问题中,从上往下第i个圆盘目前在左;arr[i] == 2,代表汉诺塔问题中,从上

    2021-07-27:给定一个数组arr,长度为N,arr中的值只有1,2,3三种.arr[i] == 1,代表汉诺塔问题中,从上往下第i个圆盘目前在左:arr[i] == 2,代表汉诺塔问题中,从上 ...

  10. Java网络编程----通过实现简易聊天工具来聊聊BIO

    IO模型即输入输出模型,我们今天主要来聊的是java网络编程中的IO模型---BIO模型.BIO即阻塞式IO,Blocking IOblocking [ˈblɒkɪŋ] v. 堵塞; 阻塞; 堵住(某 ...