1.创建用户

  adduser hduser

  修改hduser用户权限:

  sudo vim /ect/sudoers ,在文件中增加 hduser  ALL=(ALL:ALL) ALL 。

  

2.安装ssh并设置无密码登陆

  1)sudo apt-get install openssh-server

  2)启动服务:sudo /etc/init.d/ssh start

  3)查看服务是否正确启动:ps -e | grep ssh

  

  4)设置免密码登录,生成私钥和公钥

  ssh-keygen -t rsa -P ""

  cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

  

  5)免密码登陆:ssh localhost

  6) exit

3.配置java 环境

  1)下载:jdk-8u25-linux-x64.tar.gz

  2)解压:tar -xzvf jdk-8u25-linux-x64.tar.gz  

  3) sudo mv jdk1.8.0_25  /usr/local/

  4)设置环境变量:sudo vim /etc/profile(全局设置文件,也可以设置~/.bashrc文件,~/.bashrc文件设置只是该用户的设置文件),在末尾添加:

  export JAVA_HOME=/usr/local/jdk1.8.0_25
      export JRE_HOME=${JAVA_HOME}/jre  
      export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib  
      export PATH=${JAVA_HOME}/bin:$PATH

  

  5)source /etc/profile

  6)测试是否成功:java -version

  

4.hadoop单机安装

  1) 下载

  2) 解压:sudo tar -xzvf hadoop-2.4.1.tar.gz

  3) sudo mv hadoop-2.4.1 /usr/local/

  4) sudo chmod 774 hadoop-2.4.1

  5) vim .bashrc,在文件末尾添加

  export JAVA_HOME=/usr/local/jdk1.8.0_25  (选择自己的java安装路径)

  export HADOOP_INSTALL=/usr/local/hadoop-2.4.1  (自己的hadoop安装路径)

  export PATH=$PATH:$HADOOP_INSTALL/bin

  export PATH=$PATH:$HADOOP_INSTALL/sbin

  export HADOOP_MAPRED_HOME=$HADOOP_INSTALL

  export HADOOP_COMMON_HOME=$HADOOP_INSTALL

  export HADOOP_HDFS_HOME=$HADOOP_INSTALL

  export YARN_HOME=$HADOOP_INSTALL

  export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_INSTALL/lib/native

  export HADOOP_OPTS="-Djava.library.path=$HADOOP_INSTALL/lib"

  

  6) source .bashrc

  7) 进入/usr/local/hadoop-2.4.1/etc/hadoop 目录,配置hadoop-env.sh

   vim hadoop-env.sh,填入自己的java路径,hadoop的配置路径(单机不修改hadoop配置路径不影响,伪分布式必须修改)

  

  8) source hadoop-env.sh单机模式配置完

  9) WordCount测试

  mkdir input  , cd input ,vim test.txt

  bin/hadoop jar share/hadoop/mapreduce/sources/hadoop-mapreduce-examples-2.4.1-sources.jar org.apache.hadoop.examples.WordCount input output

  

  cat output/*

  

5.伪分布式配置:(进入/usr/local/hadoop-2.4.1/etc/hadoop)

  1)配置core-site.xml:vim core-site.xml,添加:

  在/usr/local/hadoop-2.4.1 下创建tmp文件夹: mkdir tmp

   <property>
        <name>hadoop.tmp.dir</name>
        <value>file:/usr/local/hadoop-2.4.1/tmp</value>
        <description>Abase for other temporary directories.</description>
    </property>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>

  

  2)配置hdfs-site.xml: vim hdfs-site.xml,添加:

  在/usr/local/hadoop-2.4.1下创建文件夹:mkdir hdfs , mkdir hdfs/name , mkdir hdfs/data

  <configuration>

   <property>
            <name>dfs.replication</name>
            <value>1</value>
      </property>

  <property>
            <name>dfs.namenode.name.dir</name>
            <value>file:/usr/local/hadoop-2.4.1/hdfs/name</value>
      </property>

  <property>
          <name>dfs.datanode.data.dir</name>
          <value>file:/usr/local/hadoop-2.4.1/hdfs/data</value>
      </property>

  </configuration>

  

  3)配置yarn-site.xml:vim yarn-site.xml,添加:

  <configuration>
   <property>
     <name>yarn.nodemanager.aux-services</name>
          <value>mapreduce_shuffle</value>
      </property>

   <property>
          <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
          <value>org.apache.hadoop.mapred.ShuffleHandler</value>
      </property>
  </configuration>
  

  4)配置mapred-site.xml: cp mapred-site.xml.template mapred-site.xml, vim mapred-site.xml ,添加:

  <configuration>
     <property>
     <name>mapreduce.framework.name</name>
          <value>yarn</value>
      </property>
  </configuration>

  

  5)格式化hdfs :  hdfs namenode -format

  6)执行启动命令: sbin/start-dfs.sh   sbin/start-yarn.sh

  7)jps查看和java有关的进程:

  

  8)hadoop管理界面:http://localhost:50070/

  

  9)hadoop进程管理界面:http://localhost:8088

  

  

hadoop学习一:hadoop安装(hadoop2.4.1,ubuntu14.04)的更多相关文章

  1. UEFI双硬盘安装win8.1和Ubuntu14.04

    UEFI双硬盘安装win8.1和Ubuntu14.04 安装环境 UEFI启动模式 双GPT硬盘 一个ssd 一个hdd 笔记本已安装win8.1 硬盘启动顺序为: U盘 ssd hdd 光驱 安装方 ...

  2. Hadoop学习(5)-- Hadoop2

    在Hadoop1(版本<=0.22)中,由于NameNode和JobTracker存在单点中,这制约了hadoop的发展,当集群规模超过2000台时,NameNode和JobTracker已经不 ...

  3. hadoop学习通过虚拟机安装hadoop完全分布式集群

    要想深入的学习hadoop数据分析技术,首要的任务是必须要将hadoop集群环境搭建起来,可以将hadoop简化地想象成一个小软件,通过在各个物理节点上安装这个小软件,然后将其运行起来,就是一个had ...

  4. Hadoop学习之Hadoop集群搭建

    1.检查网络状况 Dos命令:ping ip地址,同时,在Linux下通过命令:ifconfig可以查看ip信息2.修改虚拟机的ip地址    打开linux网络连接,在桌面右上角,然后编辑ip地址, ...

  5. hadoop学习;hadoop伪分布搭建

    先前已经做了准备工作安装jdk什么的,以下開始ssh免password登陆.这里我们用的是PieTTY工具,当然你也能够直接在linux下直接操作 ssh(secure shell),运行命令 ssh ...

  6. Hadoop学习笔记Hadoop伪分布式环境建设

    建立一个伪分布式Hadoop周围环境 1.主办(Windows)顾客(安装在虚拟机Linux)网络连接. a) Host-only 主机和独立客户端联网: 好处:网络隔离: 坏处:虚拟机和其他serv ...

  7. Hadoop学习笔记——Hadoop经常使用命令

    Hadoop下有一些经常使用的命令,通过这些命令能够非常方便操作Hadoop上的文件. 1.查看指定文件夹下的内容 语法: hadoop fs -ls 文件文件夹 2.打开某个已存在的文件 语法: h ...

  8. Openmpi 编译安装+集群配置 + Ubuntu14.04 + SSH无密码连接 + NFS共享文件系统

    来源 http://www.open-mpi.org/ 网络连接 SSH连接,保证各台机器之间可以无密码登陆,此处不展开 hosts文件如下 #/etc/hosts 192.168.0.190 mas ...

  9. Hadoop学习笔记: 安装配置Hadoop

    安装前的一些环境配置: 1. 给用户添加sudo权限,输入su - 进入root账号,然后输入visudo,进入编辑模式,找到这一行:"root ALL=(ALL) ALL"在下面 ...

随机推荐

  1. ASP.NET页面之间传值Cookie(3)

    这个也是大家常使用的方法,Cookie用于在用户浏览器上存储小块的信息,保存用户的相关信息,比如用户访问某网站时用户的ID,用户的偏好等, 用户下次访问就可以通过检索获得以前的信息.所以Cookie也 ...

  2. [bzoj4832][Lydsy1704月赛]抵制克苏恩

    题目大意:有一个英雄和若干个所从,克苏恩会攻击$K$次,每次回随机攻击对方的一个人,造成$1$的伤害.现在对方有一名克苏恩,你有一些随从.如果克苏恩攻击了你的一名随从,若这名随从不死且你的随从数量不到 ...

  3. 使用google api material icons在网页中插入图标

    在<head></head>中加入这一句: <link rel='stylesheet' href='http://fonts.googleapis.com/icon?f ...

  4. HDU2389:Rain on your Parade(二分图最大匹配+HK算法)

    Rain on your Parade Time Limit: 6000/3000 MS (Java/Others)    Memory Limit: 655350/165535 K (Java/Ot ...

  5. idea中mybatis-plugin破解

    Mybatis Plugin 一.Mybatis Plugin插件是什么 提供Mapper接口与配置文件中对应SQL的导航 编辑XML文件时自动补全 根据Mapper接口, 使用快捷键生成xml文件及 ...

  6. css中文本超出部分省略号代替

    p{ width: 100px; //设置p标签宽度 white-space: nowrap; //文本超出P标签宽度不换行,而是溢出 overflow: hidden; //文本超出P标签,超出部分 ...

  7. Jquery Ajax异步上传

    <script> $(function(){ $('#filephoto').change(function(imgFile){ console.log(imgFile) var file ...

  8. 【BZOJ】5028: 小Z的加油店

    [算法]数学+线段树/树状数组 [题解] 首先三个操作可以理解为更相减损术或者辗转相除法(待证明),所以就是求区间gcd. 这题的问题在线段树维护gcd只能支持修改成一个数,不支持加一个数. 套路:g ...

  9. bzoj 1012 基础线段树

    原题传送门:http://www.lydsy.com/JudgeOnline/problem.php?id=1012 今儿一天状态不好,都没怎么刷题..快下课了,刷道水题.... 裸的线段树 /*** ...

  10. locust===官方说明文档,关于tasks

    安装: >>> pip  install locust locust在官方simple_code中如下: from locust import HttpLocust, TaskSet ...