http://archive.apache.org/dist/hive/hive-2.1.1/

# ==================================================================安装 hive

  1. tar -zxvf apache-hive-2.1.1-bin.tar.gz -C /usr/local
  2. mv /usr/local/apache-hive-2.1.1-bin /usr/local/hive-2.1.1
  3. rm r ~/apache-hive-2.1.1-bin.tar.gz
  4.  
  5. cp ~/mysql-connector-java-5.1.46.jar /usr/local/hive-2.1.1/lib/

# 配置环境变量
# ==================================================================node1 node2 node3

  1. vi /etc/profile
  2.  
  3. # 在export PATH USER LOGNAME MAIL HOSTNAME HISTSIZE HISTCONTROL下添加
  4. export JAVA_HOME=/usr/java/jdk1.8.0_111
  5. export ZOOKEEPER_HOME=/usr/local/zookeeper-3.4.12
  6. export HADOOP_HOME=/usr/local/hadoop/hadoop-2.7.6
  7. export MYSQL_HOME=/usr/local/mysql
  8. export HBASE_HOME=/usr/local/hbase-1.2.4
  9. export HIVE_HOME=/usr/local/hive-2.1.1
  10.  
  11. export PATH=$PATH:$JAVA_HOME/bin:$JAVA_HOME/jre/bin:$ZOOKEEPER_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$MYSQL_HOME/bin:$HBASE_HOME/bin:$HIVE_HOME/bin
  12. export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
  13.  
  14. export HADOOP_INSTALL=$HADOOP_HOME
  15. export HADOOP_MAPRED_HOME=$HADOOP_HOME
  16. export HADOOP_COMMON_HOME=$HADOOP_HOME
  17. export HADOOP_HDFS_HOME=$HADOOP_HOME
  18. export YARN_HOME=$HADOOP_HOME
  19. export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native

# ==================================================================node1

  1. # 使环境变量生效
  2. source /etc/profile
  3.  
  4. # 查看配置结果
  5. echo $HIVE_HOME
  6.  
  7. mkdir -p $HIVE_HOME/data/hive
  8. mkdir -p $HIVE_HOME/data/hive/operaion_logs
  9. mkdir -p $HIVE_HOME/data/resources
  10.  
  11. # 配置 hive
  12. cp $HIVE_HOME/conf/hive-env.sh.template $HIVE_HOME/conf/hive-env.sh
  13. cp $HIVE_HOME/conf/hive-default.xml.template $HIVE_HOME/conf/hive-site.xml
  14. cp $HIVE_HOME/conf/hive-exec-log4j2.properties.template $HIVE_HOME/conf/hive-exec-log4j2.properties
  15. cp $HIVE_HOME/conf/hive-log4j2.properties.template $HIVE_HOME/conf/hive-log4j2.properties
  1. # ${system:java.io.tmpdir}/${system:user.name} 替换为本机路径 /usr/local/hive-2.1.1/data/hive
  2. # ${system:java.io.tmpdir}/${hive.session.id}_resources替换为本机路径 /usr/local/hive-2.1.1/data/resources
  3. # ${system:java.io.tmpdir}/${system:user.name}/operation_logs 替换为本机路径 /usr/local/hive-2.1.1/data/hive/operation_logs

vi $HIVE_HOME/conf/hive-site.xml

# esc 后输入
:%s#${system:java.io.tmpdir}/${system:user.name}#/usr/local/hive-2.1.1/data/hive#

:%s#${system:java.io.tmpdir}/${hive.session.id}_resources#/usr/local/hive-2.1.1/data/resources#

# esc / 输入 hive.exec.scratchdir 找到后<value> 点击 Insert 键后进行修改

  1. <property>
  2. <name>hive.exec.scratchdir</name>
  3. <value>/hive/tmp</value>
  4. </property>
  5.  
  6. <property>
  7. <name>hive.metastore.warehouse.dir</name>
  8. <value>/hive/warehouse</value>
  9. </property>
  10.  
  11. <!-- 通过jdbc协议连接mysql的hive库 -->
  12. <property>
  13. <name>javax.jdo.option.ConnectionURL</name>
  14. <value>jdbc:mysql://node1:3306/hive?createDatabaseIfNotExist=true&amp;useSSL=false</value>
  15. </property>
  16.  
  17. <!-- jdbc的mysql驱动 -->
  18. <property>
  19. <name>javax.jdo.option.ConnectionDriverName</name>
  20. <value>com.mysql.jdbc.Driver</value>
  21. </property>
  22.  
  23. <!-- mysql用户名 -->
  24. <property>
  25. <name>javax.jdo.option.ConnectionUserName</name>
  26. <value>hive</value>
  27. </property>
  28.  
  29. <!-- mysql用户密码 -->
  30. <property>
  31. <name>javax.jdo.option.ConnectionPassword</name>
  32. <value>Hive-123</value>
  33. </property>
  34.  
  35. <!--hiveserver2的HA-->
  36. <property>
  37. <name>hive.server2.support.dynamic.service.discovery</name>
  38. <value>true</value>
  39. </property>
  40.  
  41. <property>
  42. <name>hive.zookeeper.quorum</name>
  43. <value>node1:2181,node2:2181,node3:2181</value>
  44. </property>
  45.  
  46. <!-- hive的web页面暂时不配置 -->
  47. <property>
  48. <name>hive.hwi.war.file</name>
  49. <value>/usr/local/hive-2.1.1/lib/hive-hwi-2.1.1.jar</value>
  50. </property>
  1. # 从hbase/lib下复制必要jar包到hive/lib下
  2. cp $HBASE_HOME/lib/hbase-client-1.2.4.jar $HBASE_HOME/lib/hbase-common-1.2.4.jar $HIVE_HOME/lib
  3.  
  4. # 同步hive和hadoop的jline版本
  5. cp $HIVE_HOME/lib/jline-2.12.jar $HADOOP_HOME/share/hadoop/yarn/lib
  6.  
  7. # 查看版本
  8. # cd $HADOOP_HOME/share/hadoop/yarn/lib
  9. # find ./ -name "*jline*jar"
  10.  
  11. # 删除低版本的jline 0.9
  12. # rm jline-0.9.94.jar
  13.  
  14. # 复制jdk的tools.jar到hive/lib下
  15. cp $JAVA_HOME/lib/tools.jar $HIVE_HOME/lib
  16.  
  17. # rm -f $HIVE_HOME/lib/log4j-slf4j-impl-2.4.1.jar
  18.  
  19. vi $HIVE_HOME/conf/hive-env.sh
  20.  
  21. HADOOP_HOME=/usr/local/hadoop-2.7.6
  22. export HIVE_HOME=/usr/local/hive-2.1.1
  23. export HIVE_CONF_DIR=/usr/local/hive-2.1.1/conf
  24. export HIVE_AUX_JARS_PATH=/usr/local/hive-2.1.1/lib

# 如果hadoop之前没有配置hadoop.proxyuser.root.groups需配置

  1. # ==================================================================node1 node2 node3
  2. # 如果没有权限,在Hadoop的core-site.xml中增加配置:
  3. vi $HADOOP_HOME/etc/hadoop/core-site.xml
  4.  
  5. <property>
  6. <name>hadoop.proxyuser.root.groups</name>
  7. <value>*</value>
  8. </property>
  9. <property>
  10. <name>hadoop.proxyuser.root.hosts</name>
  11. <value>*</value>
  12. </property>
  13.  
  14. # ==================================================================node1
  15. # 使用超级用户刷新配置
  16. yarn rmadmin -refreshSuperUserGroupsConfiguration
  17. hdfs dfsadmin -refreshSuperUserGroupsConfiguration
  18.  
  19. # ==================================================================node1 node2
  20. # 如果是对namenode做过HA,则需要在主备namenode上执行
  21. hdfs dfsadmin -fs hdfs://appcluster -refreshSuperUserGroupsConfiguration

# ==================================================================node2 node3

  1. # 使环境变量生效
  2. source /etc/profile
  3.  
  4. # 查看配置结果
  5. echo $HIVE_HOME

# ==================================================================node1

  1. $HIVE_HOME/bin/schematool -initSchema -dbType mysql
  2.  
  3. scp -r $HIVE_HOME node2:/usr/local/
  4. scp -r $HIVE_HOME node3:/usr/local/

# 启动

  1. # ==================================================================node1 node2 node3
  2. # 启动 zookeeper
  3. zkServer.sh start
  4. zkServer.sh status
  5.  
  6. # ==================================================================node1
  7. # 启动hadoop所有进程
  8. $HADOOP_HOME/sbin/start-all.sh
  9.  
  10. $HADOOP_HOME/sbin/hadoop-daemon.sh start zkfc
  11.  
  12. # ==================================================================node2
  13. $HADOOP_HOME/sbin/yarn-daemon.sh start resourcemanager
  14. $HADOOP_HOME/sbin/hadoop-daemon.sh start zkfc
  15.  
  16. # ==================================================================node1
  17. # 要实现Hbase的HA(High Availablity)
  18. $HBASE_HOME/bin/hbase-daemon.sh start master
  19.  
  20. # 启动Hbase(start-hbase.sh)
  21. $HBASE_HOME/bin/start-hbase.sh
  22.  
  23. # ==================================================================node2
  24. # 开启Hbase的HA
  25. $HBASE_HOME/bin/hbase-daemon.sh start master
  26.  
  27. # ==================================================================node1
  28. $HIVE_HOME/bin/hiveserver2
  29.  
  30. # ==================================================================node2
  31. $HIVE_HOME/bin/hiveserver2
  32.  
  33. # ==================================================================node1
  34. zkCli.sh
  35.  
  36. ls /hiveserver2
  37.  
  38. get /hiveserver2/serverUri=node1:10000;version=2.1.1;sequence=0000000000
  39.  
  40. $HIVE_HOME/bin/beeline -u "jdbc:hive2://node1:2181,node2:2181,node3:2181/;serviceDiscoveryMode=zooKeeper;zooKeeperNamespace=hiveserver2" root 123456
  41.  
  42. # $HIVE_HOME/bin/beeline
  43. # > !connect jdbc:hive2://node1:2181,node2:2181,node3:2181/;serviceDiscoveryMode=zooKeeper;zooKeeperNamespace=hiveserver2 root "123456"
  44.  
  45. > create external table user_info(user_id int comment 'userID',user_name string comment 'userName')row format delimited fields terminated by '\t' lines terminated by '\n';
  46.  
  47. > show tables;
  48.  
  49. mkdir /root/hive
  50.  
  51. vi /root/hive/user_info.txt
  52.  
  53. 1001 zhangsan
  54. 1002 lisi
  55. 1003 wangwu
  56.  
  57. > load data local inpath '/root/hive/user_info.txt' into table user_info;
  58.  
  59. > select * from user_info;
  60.  
  61. > quit;
  62.  
  63. hdfs dfs -ls /
  64.  
  65. hdfs dfs -ls /hive/warehouse
  66.  
  67. hdfs dfs -cat /hive/warehouse/user_info/user_info.txt
  68.  
  69. hadoop fs -mkdir /hive_input_data
  70.  
  71. vi /root/hive/user_info.txt
  72.  
  73. 1001 zhangsan
  74. 1002 lisi
  75. 1003 wangwu
  76. 1004 liuliu
  77. 1005 qiqi
  78.  
  79. hadoop fs -put /root/hive/user_info.txt /hive_input_data
  80.  
  81. hdfs dfs -ls /hive_input_data
  82.  
  83. # hdfs -dfs -chmod 777 /hive_input_data
  84.  
  85. > select * from user_info;
  86.  
  87. > load data inpath '/hive_input_data/user_info.txt' overwrite into table user_info;
  88.  
  89. > select * from user_info;
  90.  
  91. # ==================================================================node1
  92. # stop已经启动的进程
  93. $HBASE_HOME/bin/stop-hbase.sh
  94.  
  95. $HADOOP_HOME/sbin/stop-all.sh
  96.  
  97. # ==================================================================node1 node2 node3
  98. # 停止 zookeeper
  99. zkServer.sh stop
  100.  
  101. # ==================================================================node1
  102. $HADOOP_HOME/sbin/hadoop-daemon.sh stop zkfc
  103.  
  104. # ==================================================================node2
  105. $HADOOP_HOME/sbin/yarn-daemon.sh stop resourcemanager
  106. $HADOOP_HOME/sbin/hadoop-daemon.sh stop zkfc
  107.  
  108. shutdown -h now
  109. # 快照 hive_hiveserver2集群

hadoop生态搭建(3节点)-07.hive配置的更多相关文章

  1. hadoop生态搭建(3节点)

    软件:CentOS-7    VMware12    SSHSecureShellClient shell工具:Xshell 规划 vm网络配置 01.基础配置 02.ssh配置 03.zookeep ...

  2. hadoop生态搭建(3节点)-08.kafka配置

    如果之前没有安装jdk和zookeeper,安装了的请直接跳过 # https://www.oracle.com/technetwork/java/javase/downloads/java-arch ...

  3. hadoop生态搭建(3节点)-04.hadoop配置

    如果之前没有安装jdk和zookeeper,安装了的请直接跳过 # https://www.oracle.com/technetwork/java/javase/downloads/java-arch ...

  4. hadoop生态搭建(3节点)-09.flume配置

    # http://archive.apache.org/dist/flume/1.8.0/# ===================================================== ...

  5. hadoop生态搭建(3节点)-10.spark配置

    # https://www.scala-lang.org/download/2.12.4.html# ================================================= ...

  6. hadoop生态搭建(3节点)-13.mongodb配置

    # 13.mongodb配置_副本集_认证授权# ==================================================================安装 mongod ...

  7. hadoop生态搭建(3节点)-15.Nginx_Keepalived_Tomcat配置

    # Nginx+Tomcat搭建高可用服务器名称 预装软件 IP地址Nginx服务器 Nginx1 192.168.6.131Nginx服务器 Nginx2 192.168.6.132 # ===== ...

  8. hadoop生态搭建(3节点)-17.sqoop配置_单节点

    # ==================================================================安装 sqoop tar -zxvf ~/sqoop-1.4.7 ...

  9. hadoop生态搭建(3节点)-03.zookeeper配置

    # https://www.oracle.com/technetwork/java/javase/downloads/java-archive-javase8-2177648.html # ===== ...

随机推荐

  1. PHP header() session_start() 函数前为什么不能有输出?

    前阵面试遇到的问题,当时没答上来,后来查了些资料,仍未得到答案.今天研究HTTP请求,终于知道了答案. HTTP 函数允许在其他输出被发送之前,对由 Web 服务器发送到浏览器的信息进行操作. HTT ...

  2. Android使用Fragment来实现TabHost的功能

    http://www.cnblogs.com/tiantianbyconan/p/3360938.html 好了,到此为止,我们已经用Fragment实现了类似TabHost的功能了,下面来看下各个F ...

  3. Android学习——Fragment与Activity通信(一)

    学会了在Activity中加载Fragment的方法之后,接下来便需要学习Activity和Fragment之间的通信.这一节先学习如何把Activity中的信息传递给Fragment. 基本过程 在 ...

  4. 配置karma支持Chrome浏览器

    准备:项目中已搭建好了karma. 前言:利用vue-cli初始化创建vue项目时,已经搭建好了测试框架 karma+mocha,但是此时karma默认启动的浏览器是 phantomjs,而我想用 C ...

  5. linux虚拟机最优测试环境搭建

    目标:创建一个最优的linux虚拟机环境 环境:vmware12.0 系统:centos6.5 (* 以下配置是建立在配置完成基础网络环境后创建的,用static静态IP地址) 1.关闭selinux ...

  6. 如何通过一个SAPGUI屏幕反查这个屏幕对应的事务码

    假设我通过某种跳转方式打开了下图这个SAPGUI的屏幕,但我想搞清楚用哪一个事务码可以直接到达这个屏幕,而不通过繁琐的点击,应该怎么做? 步骤1,点击Order字段,按F1打开帮助界面, 点上图的图标 ...

  7. OC block声明和使用

    #import "Button.h" typedef int (^MySum) (int, int); void test() { // 定义了一个block,这个block返回值 ...

  8. 从零开始Vue项目实战(四)-路由

    一.理解路由 传统的页面应用,是用一些超链接来实现页面切换和跳转的.而vue的单页面应用是基于路由和组件的,路由用于设定访问路径,并将路径和组件映射起来. 路由中有三个基本的概念 route, rou ...

  9. Python语言程序设计基础(1)—— 程序设计基本方法

    Everybody in this country should learn how to program a computer,because it teaches you how to think ...

  10. Python的基本库与第三方库

    一:Python 模块,包,库的概念理解: 1.python模块是: python模块:包含并且有组织的代码片段为模块. 表现形式为:写的代码保存为文件.这个文件就是一个模块.sample.py 其中 ...