正文前先来一波福利推荐:

福利一:

百万年薪架构师视频,该视频可以学到很多东西,是本人花钱买的VIP课程,学习消化了一年,为了支持一下女朋友公众号也方便大家学习,共享给大家。

福利二:

毕业答辩以及工作上各种答辩,平时积累了不少精品PPT,现在共享给大家,大大小小加起来有几千套,总有适合你的一款,很多是网上是下载不到。

获取方式:

微信关注 精品3分钟 ,id为 jingpin3mins,关注后回复   百万年薪架构师 ,精品收藏PPT  获取云盘链接,谢谢大家支持!

------------------------正文开始---------------------------

Hadoop安装:

首先到官方下载官网的hadoop2.7.7,链接如下 
https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/ 
找网盘的hadooponwindows-master.zip 
链接如下 
https://pan.baidu.com/s/1VdG6PBnYKM91ia0hlhIeHg 
把hadoop-2.7.7.tar.gz解压后 
使用hadooponwindows-master的bin和etc替换hadoop2.7.7的bin和etc

注意:安装Hadoop2.7.7 
  官网下载Hadoop2.7.7,安装时注意,最好不要安装到带有空格的路径名下,例如:Programe Files,否则在配置Hadoop的配置文件时会找不到JDK(按相关说法,配置文件中的路径加引号即可解决,但我没测试成功)。 
配置HADOOP_HOME

path添加%HADOOP_HOME%\bin(win10不用分号或者如下编辑界面不用分号,其余加上 ;)

-----------------------------------------------------------配置文件----------------------------

使用编辑器打开E:\Hadoop2.7.7\hadoop-2.7.7\etc\hadoop\hadoop-env.cmd 
修改JAVA_HOME的路径 
把set JAVA_HOME改为jdk的位置 
注意其中PROGRA~1代表Program Files 
set JAVA_HOME=E:\PROGRA~1\Java\jdk1.8.0_171

打开 hadoop-2.7.7/etc/hadoop/hdfs-site.xml 
修改路径为hadoop下的namenode和datanode

dfs.replication 
1

dfs.namenode.name.dir 
/E:/Hadoop2.7.7/hadoop-2.7.7/data/namenode

dfs.datanode.data.dir 
/E:/Hadoop2.7.7/hadoop-2.7.7/data/datanode

在E:\Hadoop-2.7.7目录下 添加tmp文件夹 
在E:/Hadoop2.7.7/hadoop-2.7.7/添加data和namenode,datanode子文件夹

还需要把hadoop.dll(从)拷贝到 C:\Windows\System32

不然在window平台使用MapReduce测试时报错

以管理员身份打开命令提示符 
输入hdfs namenode -format,看到seccessfully就说明format成功。

转到Hadoop-2.7.3\sbin文件下   输入start-all,启动hadoop集群 ,关闭是 stop-all

输入jps - 可以查看运行的所有节点

访问http://localhost:50070,访问hadoop的web界面

---------------------------------------------------------------------

hadoop启动后,创建如下的HDFS文件:

D:\Code\hadoop-2.7.7\hadoop-2.7.7\sbin>hdfs dfs -mkdir /user
D:\Code\hadoop-2.7.7\hadoop-2.7.7\sbin>hdfs dfs -mkdir /user/hive
D:\Code\hadoop-2.7.7\hadoop-2.7.7\sbin>hdfs dfs -mkdir /user/hive/warehouse
D:\Code\hadoop-2.7.7\hadoop-2.7.7\sbin>hdfs dfs -mkdir /tmp
D:\Code\hadoop-2.7.7\hadoop-2.7.7\sbin>hdfs dfs -mkdir /tmp/hive
D:\Code\hadoop-2.7.7\hadoop-2.7.7\sbin>hadoop fs -chmod -R 777 /tmp

HIVE安装:

1.安装hadoop

2.从maven中下载mysql-connector-java-5.1.26-bin.jar(或其他jar版本)放在hive目录下的lib文件夹

3.配置hive环境变量,HIVE_HOME=F:\hadoop\apache-hive-2.1.1-bin

4.hive配置

hive的配置文件放在$HIVE_HOME/conf下,里面有4个默认的配置文件模板

hive-default.xml.template                           默认模板

hive-env.sh.template                hive-env.sh默认配置

hive-exec-log4j.properties.template    exec默认配置

hive-log4j.properties.template               log默认配置

可不做任何修改hive也能运行,默认的配置元数据是存放在Derby数据库里面的,大多数人都不怎么熟悉,我们得改用mysql来存储我们的元数据,以及修改数据存放位置和日志存放位置等使得我们必须配置自己的环境,下面介绍如何配置。

(1)创建配置文件

$HIVE_HOME/conf/hive-default.xml.template  -> $HIVE_HOME/conf/hive-site.xml

$HIVE_HOME/conf/hive-env.sh.template  -> $HIVE_HOME/conf/hive-env.sh

$HIVE_HOME/conf/hive-exec-log4j.properties.template ->  $HIVE_HOME/conf/hive-exec-log4j.properties

$HIVE_HOME/conf/hive-log4j.properties.template  -> $HIVE_HOME/conf/hive-log4j.properties

(2)修改 hive-env.sh

export HADOOP_HOME=F:\hadoop\hadoop-2.7.2
export HIVE_CONF_DIR=F:\hadoop\apache-hive-2.1.1-bin\conf
export HIVE_AUX_JARS_PATH=F:\hadoop\apache-hive-2.1.1-bin\lib

(3)修改 hive-site.xml

  1  <!--修改的配置-->
2
3 <property>
4
5 <name>hive.metastore.warehouse.dir</name>
6
7 <!--hive的数据存储目录,指定的位置在hdfs上的目录-->
8
9 <value>/user/hive/warehouse</value>
10
11 <description>location of default database for the warehouse</description>
12
13 </property>
14
15 <property>
16
17 <name>hive.exec.scratchdir</name>
18
19 <!--hive的临时数据目录,指定的位置在hdfs上的目录-->
20
21 <value>/tmp/hive</value>
22
23 <description>HDFS root scratch dir for Hive jobs which gets created with write all (733) permission. For each connecting user, an HDFS scratch dir: ${hive.exec.scratchdir}/<username> is created, with ${hive.scratch.dir.permission}.</description>
24
25 </property>
26
27 <property>
28
29 <name>hive.exec.local.scratchdir</name>
30
31 <!--本地目录-->
32
33 <value>F:/hadoop/apache-hive-2.1.1-bin/hive/iotmp</value>
34
35 <description>Local scratch space for Hive jobs</description>
36
37 </property>
38
39 <property>
40
41 <name>hive.downloaded.resources.dir</name>
42
43 <!--本地目录-->
44
45 <value>F:/hadoop/apache-hive-2.1.1-bin/hive/iotmp</value>
46
47 <description>Temporary local directory for added resources in the remote file system.</description>
48
49 </property>
50
51 <property>
52
53 <name>hive.querylog.location</name>
54
55 <!--本地目录-->
56
57 <value>F:/hadoop/apache-hive-2.1.1-bin/hive/iotmp</value>
58
59 <description>Location of Hive run time structured log file</description>
60
61 </property>
62
63 <property>
64
65 <name>hive.server2.logging.operation.log.location</name>
66
67 <value>F:/hadoop/apache-hive-2.1.1-bin/hive/iotmp/operation_logs</value>
68
69 <description>Top level directory where operation logs are stored if logging functionality is enabled</description>
70
71 </property>
72
73 <!--新增的配置-->
74
75 <property>
76
77 <name>javax.jdo.option.ConnectionURL</name>
78
79 <value>jdbc:mysql://localhost:3306/hive?characterEncoding=UTF-8</value>
80
81 </property>
82
83 <property>
84
85 <name>javax.jdo.option.ConnectionDriverName</name>
86
87 <value>com.mysql.jdbc.Driver</value>
88
89 </property>
90
91 <property>
92
93 <name>javax.jdo.option.ConnectionUserName</name>
94
95 <value>root</value>
96
97 </property>
98
99 <property>
100
101 <name>javax.jdo.option.ConnectionPassword</name>
102
103 <value>root</value>
104
105 </property>
106
107 <!-- 解决 Required table missing : "`VERSION`" in Catalog "" Schema "". DataNucleus requires this table to perform its persistence operations. Either your MetaData is incorrect, or you need to enable "datanucleus.autoCreateTables" -->
108
109 <property>
110
111 <name>datanucleus.autoCreateSchema</name>
112
113 <value>true</value>
114
115 </property>
116
117 <property>
118
119 <name>datanucleus.autoCreateTables</name>
120
121 <value>true</value>
122
123 </property>
124
125 <property>
126
127 <name>datanucleus.autoCreateColumns</name>
128
129 <value>true</value>
130
131 </property>
132
133 <!-- 解决 Caused by: MetaException(message:Version information not found in metastore. ) -->
134
135 <property>
136
137 <name>hive.metastore.schema.verification</name>
138
139 <value>false</value>
140
141 <description>
142
143 Enforce metastore schema version consistency.
144
145 True: Verify that version information stored in metastore matches with one from Hive jars. Also disable automatic
146
147 schema migration attempt. Users are required to manully migrate schema after Hive upgrade which ensures
148
149 proper metastore schema migration. (Default)
150
151 False: Warn if the version information stored in metastore doesn't match with one from in Hive jars.
152
153 </description>
154
155 </property>

注:需要事先在hadoop上创建hdfs目录

启动metastore服务:hive --service metastore

在数据库中生成对应的 hive 数据库

启动Hive:hive

-------------------------------------------------------------- 创建表 以及 查询案例

hive上创建表:

CREATE TABLE testB (
id INT,
name string,
area string
) PARTITIONED BY (create_time string) ROW FORMAT DELIMITED FIELDS TERMINATED BY '\t' STORED AS TEXTFILE;

将本地文件上传到 HDFS:

HDFS下执行:    D:\Code\hadoop-2.7.7\hadoop-2.7.7\sbin>hdfs dfs -put D:\Code\hadoop-2.7.7\gxy\bbb.txt /user/hive/warehouse

hive导入HDFS中的数据:

LOAD DATA INPATH '/user/hive/warehouse/bbb.txt' INTO TABLE testb PARTITION(create_time='2015-07-08');

执行选择命令:

select * from testb;

Windows环境下安装Hadoop+Hive的使用案例的更多相关文章

  1. hadoop学习(四)----windows环境下安装hadoop

    因为我们不能在线上环境进行调试hadoop,这样就只能在本地先调试好了再放到线上去啦.我本地是windows环境,今天先记下windows下搭建hadoop2.7的步骤. 1 本地环境 windows ...

  2. 在 windows 环境下安装 redislive

    这是一篇在 windows 环境下安装 redislive 的教程! 项目地址:https://github.com/nkrode/RedisLive 配置文档:http://www.nkrode.c ...

  3. Windows环境下安装PHPUnit

    Windows环境下安装PHPUnit,在此整理一下,以便大家参考. 本人测试安装环境:Windows7(win32) + Apache(2.2.13) + PHP(5.3.6) 1.    以管理员 ...

  4. Nginx——在Windows环境下安装

    下载 Nginx是开源软件,用户可以访问 http://nginx.org/ 网站获取源码包或Windows二进制文件下载.其中1.13.x版本为开发版本,1.12.0版本为稳定版本.开发版本分支会较 ...

  5. 在windows环境下安装redis和phpredis的扩展

    在windows环境下安装redis和phpredis的扩展 1.首先配置php: 需要在windows的集成环境中找到php的扩展文件夹,ext,然后在网上寻找自己的php对应的.dll文件 比如说 ...

  6. windows环境下安装yaf框架

    windows环境下安装yaf框架 在windows下安装yaf框架 准备工作: php环境(过程略,wamp,xampp,phpstudy都行,php版本大于5.3) git工具(需要从github ...

  7. ElasticHD Windows环境下安装

    ElasticHD Linux环境下安装教程        ElasticHD windows环境下安装教程   习惯了T-SQL 查询,Elasticsearch的DSL查询语法简直就是反人类呀,一 ...

  8. RabbitMQ,Windows环境下安装搭建

    切入正题:RabbitMQ的Windows环境下安装搭建 一.首先安装otp_win64_20.1.exe,,, 二.然后安装,rabbitmq-server-3.6.12.exe, 安装完成后,在服 ...

  9. 如何在Windows环境下安装Linux系统虚拟机

    如何在Windows环境下安装Linux系统虚拟机 本篇经验写给想要入门学习C语言的小白们.Windows系统因为使用窗口图形化,操作简单,功能多样,所以我们在Windows环境下可以做到很多,但想要 ...

随机推荐

  1. SpringMVC 请求调用过程

    1.spring mvc请所有的请求都提交给DispatcherServlet,它会委托应用系统的其他模块负责负责对请求进行真正的处理工作. 2.DispatcherServlet查询一个或多个Han ...

  2. CodeForces 835C - Star sky | Codeforces Round #427 (Div. 2)

    s <= c是最骚的,数组在那一维开了10,第八组样例直接爆了- - /* CodeForces 835C - Star sky [ 前缀和,容斥 ] | Codeforces Round #4 ...

  3. Python一等函数

    一等对象 一等对象的定义: (1)在运行时创建 (2)能赋值给变量或数据结构中的元素 (3)能作为参数传给函数 (4)能作为函数的返回结果 ▲ Python中,整数.字符串和字典.函数都是一等对象. ...

  4. 一种关闭Windows 8.1 Windows Defender的简单办法

    背景 安装好Windows 8.1,像往常一样,打开[服务]准备关闭Windows Defender,发现不能设置启动类型而且其默认为启动状态,如下图所示. 两个有两种方式关闭它.一是安装第三方安全软 ...

  5. mac使用php-version切换PHP版本

    在开发过程中,有时候我们的程序对某个php版本有着极为重要的限制,特别是大型项目. 因此,我们就需要切换多个php版本来满足我们的需求. 我们使用php-version来达到这个目的. 首先我们先使用 ...

  6. springMVC配置拦截器、过滤器、前端控制器时遇到的问题总结

    1.业务场景:使用vuejs+springMVC+spring框架搭建一个mis系统,集成SSO单点登录: 2.遇到问题:使用interceptor拦截器配置SSO单点登录,直接敲域名,或者ip+端口 ...

  7. spring MVC 拦截有几种实现方式

    spring MVC 拦截有几种实现方式 实现HandelInterceptor接口方式        继承HandelInterceptor 的方式.一般有这两种方式 spring 如何走单元测式 ...

  8. Golang 函数耗时统计

    当时候需要去计算一段代码或一个程序所消耗时间的时候,就需要进行统计时间,用程序去计算某一段代码的执行所需要的时间远比用眼睛直接去看程序运行时间高很多. go语言中的time包中提供了函数来提供计算消耗 ...

  9. Leetcode题目238.除自身以外数组的乘积(中等)

    题目描述: 给定长度为 n 的整数数组 nums,其中 n > 1,返回输出数组 output ,其中 output[i] 等于 nums 中除 nums[i] 之外其余各元素的乘积. 示例: ...

  10. CTF中PHP反序列化和命令注入的一次简单利用

    代码来自第六届防灾科技学院网络安全技能大赛,侵删. 目标 获取Linux服务器根目录下的flag 代码 /*home.php*/ class home{ private $method; privat ...