Hadoop的下载和安装

一:Hadoop的简介   

    Apache的Hadoop是一个开源的、可靠的、可扩展的系统架构,可利用分布式架构来存储海量数据,以及实现分布式的计算

    Hadoop许使用简单的编程模型在计算机集群中对大型数据集进行分布式处理。可以从单个服务器扩展到数千台机器,

    每个机器都提供本地计算和存储,而不是依靠硬件来提供高可用性。

    此外,Hadoop集群的高可用性也非常良好,因为框架内的机制是可以够自动检测和处理故障。

      

      

     hadoop名字的来源:这个名字不是一个缩写,它是一个虚构的名字。该项目的创建者,Doug Cutting如此解释

    Hadoop的得名:"这个名字是我孩子给一头吃饱了的棕黄色大象命名的。我的命名标准就是简短,容易发音和拼写,

    没有太多的意义,并且不会被用于别处。小孩子是这方面的高手。

二:下载

  第一种方式:官网下载  http://hadoop.apache.org/releases.html

    第二种方式:百度网盘2.7.1版本  链接: https://pan.baidu.com/s/1Nkp4hQEMWblKqdBvj-lUZA 密码: yy18

三:安装和配置环境

   1.1安装模式  

      单机模式:不能使用HDFS,只能使用MapReduce,所以单机模式最主要的目的是在本机调试mapreduce代码

      伪分布式模式:用多个线程模拟多台真实机器,即模拟真实的分布式环境。(本次用这个)

      完全分布式模式:用多台机器(或启动多个虚拟机)来完成部署集群。

   1.2安装步骤    

        1关闭防火墙.

          执行:service iptables stop 临时关闭防火墙,重启失效

          chkconfig iptables off  永久关闭防火墙,打完上面的命令再打一次这个,两个配合永久关闭.

        

        2.配置主机名称

          有些主机名称名字又长,有不好记,就需要改一下主机名称,配置Hadoop的时候会方便一些

          当然也可以不改,不影响的

          执行: vim  /etc/sysconfig/network  找到HOSTNAME改等号后面就可以改你想改的主机名称了

          我这里是BigData02我就不改了,你们随意。

           

           注意:主机名里不能有下滑线,或者特殊字符 #$,不然会找不到主机导致无法启动

          这种方式更改主机名需要重启才能永久生效,因为主机名属于内核参数     

          如果不想重启,可以执行:host name BigData2(这里写你改的)。

          但是这种更改是临时的,重启后会恢复原主机名。

          所以可以结合使用。先修改配置文件,然后执行:hostname BigData02 。

          可以达到不重启或重启都是主机名都是同一个的目的

        3.配置hosts文件

             执行 vim /etc/hosts

          

        4.配置自己节点免秘钥登录 

          如果是单机的伪分布式环境,节点需要登录自己节点,即BigData02要登录BigData02

          但是此时是需要输入密码的,所以要在BigData02节点上配置免密匙登录.

          执行:ssh-keygen

          然后一直回车

          

              生成节点的公钥和私钥,生成的文件会自动放在/root/.ssh目录下(了解)

           启动hadoop的时候会自己调用自己,还有重复输入用户名和密码太麻烦了。所以就

          

          这样Hadoop重启的时候就可以不用重复输入账号密码了

          比如:ssh 你的主机ip    我刚才改hosts文件了,把我的ip映射成BigData02也可以用

          ssh BigData02  登录,记住登录了别忘了exit退出来。

          如果A主机想免密登录到B主机就可以在A主机执行

          ssh-copy-id root@B主机的ip地址

这样A主机就可以免密登录到B主机

        5.安装前的环境.

           需要jdk环境 装环境不太熟悉的可以参考一下https://www.cnblogs.com/bybdz/p/9525540.html

           使用Xshell连接Linux云主机或者虚拟机我这里用虚拟机,我使用Xshell连接Linux虚拟机

           对Xshell感兴趣的可以看一下  https://www.cnblogs.com/bybdz/p/9311354.html

        6.如何上传到Linux.

          rz -e 把下载下来的Hadoop包传到Linux系统下(Xshell连接了Linux,别的我没试过,效果不保证)

          如果输入rz -e 提示command not found,用 yum install lrzsz 安装 然后rz -e选择上传

          

          或者直接拖拽上传

          

        7.配置 hadoop-env.sh   

          先把上传过来的hadoop解压一下

          

          计入hadoop目录的ect目录下的hadoop目录下注意是hadoop目录下的ect/hadoop目录

          

          然后: vim hadoop-env.sh    这个文件也是在hadoop目录下的ect/hadoop目录

          修改  java_home路径和 hadoop_conf_dir 路径

          

          自己的hadoop目录,后面的etc/hadoop别忘了写

          

          

          然后执行:source hadoop-env.sh 让配置立即生效

          

        8.修改 core-site.xml

         

在 hadoop目录下 ,进入 etc/hadoop目录

          以下的配置如果没有做说明,全都在Hadoop根目录下的etc目录下的hadoop目录下操作

          现在我在我们本身就在这个目录下如下图:

          

          执行: vim  core-site.xml

          最下面本来是这样的

          

          添加2个property节点,没有做说明的可以照着写,有说明的根据自己情况写

          

          这个这顶的目录如果不存在的话一定要自己创建!!!

        9.修改 hdfs-site.xml

            配置如下:照着抄

            

            <!--如果是伪分布模式,此值是1-->

            <property>

               <name>dfs.replication</name>

              <value>1</value>

              </property>

            <!--设置hdfs的操作权限,false表示任何用户都可以在hdfs上操作文件-->

            <property>

              <name>dfs.permissions</name>

              <value>false</value>

              </property>

        

          10.修改mapred-site.xml

            

            这个文件初始时是没有的,有一个模板文件,mapred-site.xml.template

            所以需要拷贝一份,并重命名为mapred-site.xml

            执行:cp mapred-site.xml.template mapred-site.xml

            

            配置如下

            

             <property>

              <!--指定mapreduce运行在yarn上-->

              <name>mapreduce.framework.name</name>

              <value>yarn</value>

             </property>

         11.修改 yarn-site.xml

            配置如下图

            

            <configuration>

            <property>

              <!--指定yarn的老大 resoucemanager的地址-->

              <name>yarn.resourcemanager.hostname</name>:

              <value>hadoop01</value>

            </property>

          

            <property>

              <!--NodeManager获取数据的方式-->

              <name>yarn.nodemanager.aux-services</name>

              <value>mapreduce_shuffle</value>

             </property>

            <configuration>

         12.配置slaves文件

            

        13.配置hadoop的环境变量,JDK目录和HADOOP目录写自己的

         vim /etc/profile    在最后添加

            

            JDK目录,和HADOOP目录写自己的,CLASSPATH和PATH和export可以照着抄

            JAVA_HOME=/home/software/jdk1.8

            HADOOP_HOME=/home/software/hadoop-2.7.1

            CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

            PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

            export JAVA_HOME PATH CLASSPATH HADOOP_HOME

            source /etc/profile   使环境变量生效

              

         14.格式化namenode

            

            执行:hadoop namenode -format

            如果不好使,可以重启linux

            当出现:successfully,证明格式化成功

             

        

         15.启动Hadoop

           因为配置了Hadoop环境变量,不需要到sbin目录下启动

           直接执行:start-dfs.sh  启动hadoop相关的服务  

            出现如下图就成功了,如果少的化,可能是配置文件写错了,检查配置文件 

           

打开浏览器http://你的ip地址:50070/ 比如:http://192.168.139.133:50070/       

           会出现如下图,说明启动成功了

           

        注:如果在启动时,报错:Cannot find configuration directory: /etc/hadoop

        解决办法:编辑 etc/hadoop下的 hadoop-env.sh 文件,添加如下配置信息:

           export HADOOP_CONF_DIR=/home/software/hadoop-2.7.1/etc/hadoop

                   

        然后执行 source hadoop-env.sh 使配置立即生效(在配置文件目录下)

           

           

        执行:start-yarn.sh 启动yarn相关的服务

            

           end 2018年8月25日

          

          

          

  

Hadoop的下载和安装的更多相关文章

  1. Hadoop集群搭建安装过程(三)(图文详解---尽情点击!!!)

    Hadoop集群搭建安装过程(三)(图文详解---尽情点击!!!) 一.JDK的安装 安装位置都在同一位置(/usr/tools/jdk1.8.0_73) jdk的安装在克隆三台机器的时候可以提前安装 ...

  2. [转]protobuf-2.5.0.tar.gz的下载与安装

    protobuf-2.5.0.tar.gz的下载与安装 原文地址:http://blog.csdn.net/tdmyl/article/details/31811317 版权声明:本文为博主原创文章, ...

  3. Eclipse的下载、安装和WordCount的初步使用(本地模式和集群模式)

    包括:    Eclipse的下载 Eclipse的安装 Eclipse的使用 本地模式或集群模式 Scala IDE for Eclipse的下载.安装和WordCount的初步使用(本地模式和集群 ...

  4. IntelliJ IDEA的下载、安装和WordCount的初步使用(本地模式和集群模式)

    包括: IntelliJ IDEA的下载  IntelliJ IDEA的安装 IntelliJ IDEA中的scala插件安装 用SBT方式来创建工程 或 选择Scala方式来创建工程 本地模式或集群 ...

  5. 数据库概述、mysql-5.7.11-winx64.zip 的下载、安装、配置和使用(windows里安装)图文详解

    本博文的主要内容有 .数据库的概述 .mysql-5.7.11-winx64.zip 的下载    .mysql-5.7.11-winx64.zip 的安装 .mysql-5.7.11-winx64. ...

  6. hadoop的集群安装

    hadoop的集群安装 1.安装JDK,解压jar,配置环境变量 1.1.解压jar tar -zxvf jdk-7u79-linux-x64.tar.gz -C /opt/install //将jd ...

  7. protobuf-2.5.0.tar.gz的下载与安装

    1.下载 hadoop使用protocol buffer进行通信,须要下载和安装protobuf-2.5.0.tar.gz.因为如今protobuf-2.5.0.tar.gz已经无法在官网https: ...

  8. Hadoop 发行版本 Hortonworks 安装详解(一) 准备工作

    一.前言 目前Hadoop发行版非常多,所有这些发行版均是基于Apache Hadoop衍生出来的,之所以有这么多的版本,完全是由Apache Hadoop的开源协议决定的:任何人可以对其进行修改,并 ...

  9. Hadoop 发行版本 Hortonworks 安装详解(二) 安装Ambari

    一.通过yum安装ambari-server 由于上一步我们搭建了本地源,实际上yum是通过本地源安装的ambari-server,虽然也可以直接通过官方源在线安装,不过体积巨大比较费时. 这里我选择 ...

随机推荐

  1. 数据库(sqlserver 2005)优化排查之路

    查找问题过程是痛苦的,解决完问题是快乐! 兄弟帮助一个公司开发了一个旅游网站(asp.net+sqlsever2005),一直还算稳定,但是最近网站却慢的可以,让人头疼.登录服务器,进入任务管理器,发 ...

  2. Ubuntu查看文件格式(后缀名)

    在文件目录执行: $ file filename #filename表示要查看的文件名

  3. Pytest系列(1) - 快速入门和基础讲解

    如果你还想从头学起Pytest,可以看看这个系列的文章哦! https://www.cnblogs.com/poloyy/category/1690628.html 前言 目前有两种纯测试的测试框架, ...

  4. Java中使用RSA算法加密

    Java中使用RSA算法加密 概述 RSA加密算法是一种非对称加密算法 RSA加密的方式 使用公钥加密的数据,利用私钥进行解密 使用私钥加密的数据,利用公钥进行解密 RSA是一对密钥.分别是公钥和私钥 ...

  5. Java并发基础10:原子性操作类的使用

    在 java5 以后,我们接触到了线程原子性操作,也就是在修改时我们只需要保证它的那个瞬间是安全的即可,经过相应的包装后可以再处理对象的并发修改,本文总结一下Atomic系列的类的使用方法,其中包含: ...

  6. Python 程序慢的像蜗牛,我该怎么办?

    1. “一猿小讲”的风格就是多元化,偶尔会真情吐露一下程序猿的内心:偶尔也结合自己的经历畅聊一些经验杂谈:其中也不乏幽默风趣的技术故事.分享是件快乐的事情,工作之余,有时间我就尽力多码字,多推几篇文章 ...

  7. STM32F103ZET6时钟

    1.STM32F103ZET6时钟说明 STM32F103ZET6的时钟树图如下所示: STM32F103ZET6有很多个时钟源,分别有: HSE:高速外部时钟信号. HSI:高速内部部时钟信号. L ...

  8. 1058 A+B in Hogwarts (20分)(水)

    If you are a fan of Harry Potter, you would know the world of magic has its own currency system -- a ...

  9. python编程笔记整理(2)

    1.向字典中添加元素     字典名[键名] = 键值     my["姓名"] = "许嘉祺" (使用此代码可以把键值对添加到名为name的字典里.) (由于 ...

  10. C9K Stackwise Virtual(一)

    一.SV技术基本说明 思科Catalyst9K平台的Stackwise Virtual技术是将两个物理的交换机虚拟成一个逻辑的实体(从网络控制层面和管理的角度来看),这两个交换机合二为一之后,将共享相 ...