1.准备三台虚拟机

2.hadoop+hive+spark+java软件包

传送门:Hadoop官网  Hive官网  Spark官网

    

一、修改主机名,hosts文件

  主机名修改

     hostnamectl set-hostname ***

  hosts文件修改

     vi /etc/hosts    写入以下内容

     master 192.168.0.110

     slaver1 192.168.0.111

     slaver2 192.168.0.112

  SSH免登陆

     运行命令 ssh-keygen -t rsa生成秘钥

      

    

     master节点运行命令 cat id_rsa.pub > authorized_keys

               ssh slaver1 cat ~/.ssh/id_rsa.pub >>authorized_keys

               ssh slaver2 cat ~/.ssh/id_rsa.pub >>authorized_keys

               scp authorized_key root@slaver1:~/.ssh/

               scp authorized_key root@slaver2:~/.ssh/

     vi /etc/ssh/sshd删掉以下注释

      

        

    执行完如上操作即可免密登录

      

二、java环境配置

  上传java软件包到各节点并解压缩java软件包到/usr/local/目录下重命名为

    

  配置java环境变量

   编辑/etc/profile文件,并追加

      export JAVA_HOME=/usr/local/jdk1.8.0

      export PATH=$JAVA_HOME/bin:$PATH

   运行source /etc/profile命令 

 测试java环境变量

    运行java -version命令

    

    成功安装并配置java

三、Hadoop环境搭建

  上传hadoop软件包并解压缩hadoop软件包到/usr/local/目录下重命名hadoop

    

  编辑/etc/profile文件,并追加

       export HADOOP_HOME=/usr/local/hadoop

       export PATH=$HADOOP_HOME/bin:$PATH

    运行source /etc/profile命令

  修改配置文件hadoop目录下etc/hadoop/hadoop-env.sh如下

    

  修改配置文件hadoop目录下etc/hadoop/core-site.xml如下

      

  修改配置文件hadoop目录下etc/hadoop/hdfs-site.xml如下

      

  修改配置文件hadoop目录下etc/hadoop/yarn-site.xml如下

      

  修改配置文件hadoop目录下etc/hadoop/mapred-site.xml如下

      

  编辑hadoop目录下etc/hadoop/master

      

  编辑hadoop目录下etc/hadoop/slaves

    

  格式化HDFS

      master节点运行命令hdfs namenode -format

  master节点运行hadoop目录下sbin/start.all.sh启动所有程序

      

浏览器下输入192.168.0.110:50070即可打开web界面hadoop

   

在master和slave节点上输入命令jps

     

hadoop搭建成功

hadoop+hive+spark搭建(一)的更多相关文章

  1. hadoop+hive+spark搭建(二)

    上传hive软件包到任意节点 一.安装hive软件 解压缩hive软件包到/usr/local/hadoop/目录下 重命名hive文件夹 在/etc/profile文件中添加环境变量 export ...

  2. hadoop+hive+spark搭建(三)

    一.spark安装   因为之前安装过hadoop,所以,在“Choose a package type”后面需要选择“Pre-build with user-provided Hadoop [can ...

  3. 大数据学习系列之四 ----- Hadoop+Hive环境搭建图文详解(单机)

    引言 在大数据学习系列之一 ----- Hadoop环境搭建(单机) 成功的搭建了Hadoop的环境,在大数据学习系列之二 ----- HBase环境搭建(单机)成功搭建了HBase的环境以及相关使用 ...

  4. hadoop和spark搭建记录

    因玩票需要,使用三台搭建spark(192.168.1.10,192.168.1.11,192.168.1.12),又因spark构建在hadoop之上,那么就需要先搭建hadoop.历经一个两个下午 ...

  5. 了解大数据的技术生态系统 Hadoop,hive,spark(转载)

    首先给出原文链接: 原文链接 大数据本身是一个很宽泛的概念,Hadoop生态圈(或者泛生态圈)基本上都是为了处理超过单机尺度的数据处理而诞生的.你能够把它比作一个厨房所以须要的各种工具. 锅碗瓢盆,各 ...

  6. 一文教你看懂大数据的技术生态圈:Hadoop,hive,spark

    转自:https://www.cnblogs.com/reed/p/7730360.html 大数据本身是个很宽泛的概念,Hadoop生态圈(或者泛生态圈)基本上都是为了处理超过单机尺度的数据处理而诞 ...

  7. 配置Hadoop,hive,spark,hbase ————待整理

    五一一天在家搭建好了集群,要上班了来不及整理,待下周周末有时间好好整理整理一个完整的搭建hadoop生态圈的集群的系列 若出现license information(license not accep ...

  8. 服务器Hadoop+Hive搭建

    出于安全稳定考虑很多业务都需要服务器服务器Hadoop+Hive搭建,但经常有人问我,怎么去选择自己的配置最好,今天天气不错,我们一起来聊一下这个话题. Hadoop+Hive环境搭建 1虚拟机和系统 ...

  9. 大数据学习系列之八----- Hadoop、Spark、HBase、Hive搭建环境遇到的错误以及解决方法

    前言 在搭建大数据Hadoop相关的环境时候,遇到很多了很多错误.我是个喜欢做笔记的人,这些错误基本都记载,并且将解决办法也写上了.因此写成博客,希望能够帮助那些搭建大数据环境的人解决问题. 说明: ...

随机推荐

  1. jq获取今天、昨天、一周时间

    不少后台文章管理系统就有今天.明天.一周内.全部的分类展示,用Jquery获取今天.明天.一周内的时间节点(如下图) html页面代码: <div class="date-list-c ...

  2. python爬虫(七)_urllib2:urlerror和httperror

    urllib2的异常错误处理 在我们用urlopen或opener.open方法发出一个请求时,如果urlopen或opener.open不能处理这个response,就产生错误. 这里主要说的是UR ...

  3. python用户管理系统

    学Python这么久了,第一次写一个这么多的代码(我承认只有300多行,重复的代码挺多的,我承认我确实垃圾),但是也挺不容易的 自定义函数+装饰器,每一个模块写的一个函数 很多地方能用装饰器(逻辑跟不 ...

  4. linux进程标识符具体解释1

    每一个进程都有一个实际用户标识符和一个实际组标识符,它们永远是启动该进程之用户的用户标识符和组标识符. 进程的有效用户标识符和有效组标识符或许更重要些,它们被用来确定一个用户是否能訪问某个确定的文件. ...

  5. MS OFFICE WORD 绝招

    以MS OFFICE WORD 2010为例. 1.WORD 文件夹连接线(标准称呼:前导符)为什么有的稀,有的密? 答案:文件夹格式字体不同. 2.首页.文件夹页.正文有的要页眉,有的不要,首页不要 ...

  6. jmeter的安装

        1.安装jdk和环境变量配置 变量名:[JAVA_HOME] 变量值:[D:\Program Files\Java\jdk1.8.0_92][jdk安装路径] 变量名:[path] 变量值:[ ...

  7. 【Java入门提高篇】Day7 Java内部类——局部内部类

    今天介绍第二种内部类--局部内部类. 局部内部类是什么?顾名思义,那就是定义在局部内部的类(逃).开玩笑的,局部内部类就是定义在代码块.方法体内.作用域(使用花括号"{}"括起来的 ...

  8. linux应用态下的时间

    1.时间值 1.1 日历时间(UTC) 该值是自1 9 7 0年1月1日0 0 : 0 0 : 0 0以来国际标准时间( U T C)所经过的秒数累计值(早期的手册称 U T C为格林尼治标准时间) ...

  9. CrawlSpiders

    1.用 scrapy 新建一个 tencent 项目 2.在 items.py 中确定要爬去的内容 # -*- coding: utf-8 -*- # Define here the models f ...

  10. 3D Game Programming withDX11 学习笔记(一) 数学知识总结

    在图形学中,数学是不可或缺的一部分,所以本书最开始的部分就是数学知识的复习.在图形学中,最常用的是矢量和矩阵,所以我根据前面三个章节的数学知识,总结一下数学知识. 一.矢量 数学中的矢量,拥有方向和长 ...