1.创建用户

  adduser hduser

  修改hduser用户权限:

  sudo vim /ect/sudoers ,在文件中增加 hduser  ALL=(ALL:ALL) ALL 。

  

2.安装ssh并设置无密码登陆

  1)sudo apt-get install openssh-server

  2)启动服务:sudo /etc/init.d/ssh start

  3)查看服务是否正确启动:ps -e | grep ssh

  

  4)设置免密码登录,生成私钥和公钥

  ssh-keygen -t rsa -P ""

  cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

  

  5)免密码登陆:ssh localhost

  6) exit

3.配置java 环境

  1)下载:jdk-8u25-linux-x64.tar.gz

  2)解压:tar -xzvf jdk-8u25-linux-x64.tar.gz  

  3) sudo mv jdk1.8.0_25  /usr/local/

  4)设置环境变量:sudo vim /etc/profile(全局设置文件,也可以设置~/.bashrc文件,~/.bashrc文件设置只是该用户的设置文件),在末尾添加:

  export JAVA_HOME=/usr/local/jdk1.8.0_25
      export JRE_HOME=${JAVA_HOME}/jre  
      export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib  
      export PATH=${JAVA_HOME}/bin:$PATH

  

  5)source /etc/profile

  6)测试是否成功:java -version

  

4.hadoop单机安装

  1) 下载

  2) 解压:sudo tar -xzvf hadoop-2.4.1.tar.gz

  3) sudo mv hadoop-2.4.1 /usr/local/

  4) sudo chmod 774 hadoop-2.4.1

  5) vim .bashrc,在文件末尾添加

  export JAVA_HOME=/usr/local/jdk1.8.0_25  (选择自己的java安装路径)

  export HADOOP_INSTALL=/usr/local/hadoop-2.4.1  (自己的hadoop安装路径)

  export PATH=$PATH:$HADOOP_INSTALL/bin

  export PATH=$PATH:$HADOOP_INSTALL/sbin

  export HADOOP_MAPRED_HOME=$HADOOP_INSTALL

  export HADOOP_COMMON_HOME=$HADOOP_INSTALL

  export HADOOP_HDFS_HOME=$HADOOP_INSTALL

  export YARN_HOME=$HADOOP_INSTALL

  export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_INSTALL/lib/native

  export HADOOP_OPTS="-Djava.library.path=$HADOOP_INSTALL/lib"

  

  6) source .bashrc

  7) 进入/usr/local/hadoop-2.4.1/etc/hadoop 目录,配置hadoop-env.sh

   vim hadoop-env.sh,填入自己的java路径,hadoop的配置路径(单机不修改hadoop配置路径不影响,伪分布式必须修改)

  

  8) source hadoop-env.sh单机模式配置完

  9) WordCount测试

  mkdir input  , cd input ,vim test.txt

  bin/hadoop jar share/hadoop/mapreduce/sources/hadoop-mapreduce-examples-2.4.1-sources.jar org.apache.hadoop.examples.WordCount input output

  

  cat output/*

  

5.伪分布式配置:(进入/usr/local/hadoop-2.4.1/etc/hadoop)

  1)配置core-site.xml:vim core-site.xml,添加:

  在/usr/local/hadoop-2.4.1 下创建tmp文件夹: mkdir tmp

   <property>
        <name>hadoop.tmp.dir</name>
        <value>file:/usr/local/hadoop-2.4.1/tmp</value>
        <description>Abase for other temporary directories.</description>
    </property>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>

  

  2)配置hdfs-site.xml: vim hdfs-site.xml,添加:

  在/usr/local/hadoop-2.4.1下创建文件夹:mkdir hdfs , mkdir hdfs/name , mkdir hdfs/data

  <configuration>

   <property>
            <name>dfs.replication</name>
            <value>1</value>
      </property>

  <property>
            <name>dfs.namenode.name.dir</name>
            <value>file:/usr/local/hadoop-2.4.1/hdfs/name</value>
      </property>

  <property>
          <name>dfs.datanode.data.dir</name>
          <value>file:/usr/local/hadoop-2.4.1/hdfs/data</value>
      </property>

  </configuration>

  

  3)配置yarn-site.xml:vim yarn-site.xml,添加:

  <configuration>
   <property>
     <name>yarn.nodemanager.aux-services</name>
          <value>mapreduce_shuffle</value>
      </property>

   <property>
          <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
          <value>org.apache.hadoop.mapred.ShuffleHandler</value>
      </property>
  </configuration>
  

  4)配置mapred-site.xml: cp mapred-site.xml.template mapred-site.xml, vim mapred-site.xml ,添加:

  <configuration>
     <property>
     <name>mapreduce.framework.name</name>
          <value>yarn</value>
      </property>
  </configuration>

  

  5)格式化hdfs :  hdfs namenode -format

  6)执行启动命令: sbin/start-dfs.sh   sbin/start-yarn.sh

  7)jps查看和java有关的进程:

  

  8)hadoop管理界面:http://localhost:50070/

  

  9)hadoop进程管理界面:http://localhost:8088

  

  

hadoop学习一:hadoop安装(hadoop2.4.1,ubuntu14.04)的更多相关文章

  1. UEFI双硬盘安装win8.1和Ubuntu14.04

    UEFI双硬盘安装win8.1和Ubuntu14.04 安装环境 UEFI启动模式 双GPT硬盘 一个ssd 一个hdd 笔记本已安装win8.1 硬盘启动顺序为: U盘 ssd hdd 光驱 安装方 ...

  2. Hadoop学习(5)-- Hadoop2

    在Hadoop1(版本<=0.22)中,由于NameNode和JobTracker存在单点中,这制约了hadoop的发展,当集群规模超过2000台时,NameNode和JobTracker已经不 ...

  3. hadoop学习通过虚拟机安装hadoop完全分布式集群

    要想深入的学习hadoop数据分析技术,首要的任务是必须要将hadoop集群环境搭建起来,可以将hadoop简化地想象成一个小软件,通过在各个物理节点上安装这个小软件,然后将其运行起来,就是一个had ...

  4. Hadoop学习之Hadoop集群搭建

    1.检查网络状况 Dos命令:ping ip地址,同时,在Linux下通过命令:ifconfig可以查看ip信息2.修改虚拟机的ip地址    打开linux网络连接,在桌面右上角,然后编辑ip地址, ...

  5. hadoop学习;hadoop伪分布搭建

    先前已经做了准备工作安装jdk什么的,以下開始ssh免password登陆.这里我们用的是PieTTY工具,当然你也能够直接在linux下直接操作 ssh(secure shell),运行命令 ssh ...

  6. Hadoop学习笔记Hadoop伪分布式环境建设

    建立一个伪分布式Hadoop周围环境 1.主办(Windows)顾客(安装在虚拟机Linux)网络连接. a) Host-only 主机和独立客户端联网: 好处:网络隔离: 坏处:虚拟机和其他serv ...

  7. Hadoop学习笔记——Hadoop经常使用命令

    Hadoop下有一些经常使用的命令,通过这些命令能够非常方便操作Hadoop上的文件. 1.查看指定文件夹下的内容 语法: hadoop fs -ls 文件文件夹 2.打开某个已存在的文件 语法: h ...

  8. Openmpi 编译安装+集群配置 + Ubuntu14.04 + SSH无密码连接 + NFS共享文件系统

    来源 http://www.open-mpi.org/ 网络连接 SSH连接,保证各台机器之间可以无密码登陆,此处不展开 hosts文件如下 #/etc/hosts 192.168.0.190 mas ...

  9. Hadoop学习笔记: 安装配置Hadoop

    安装前的一些环境配置: 1. 给用户添加sudo权限,输入su - 进入root账号,然后输入visudo,进入编辑模式,找到这一行:"root ALL=(ALL) ALL"在下面 ...

随机推荐

  1. springboot 实现自定义注解

    1.定义一个注解@Target(ElementType.METHOD)@Retention(RetentionPolicy.RUNTIME)@Documentedpublic @interface T ...

  2. [POJ2777] Count Color

    \[Count Color\] Time Limit: 1000MS Memory Limit: 65536K Total Submissions: 50865 Accepted: 15346 Des ...

  3. SCOI2008奖励关 [状压dp]

    题目描述 你正在玩你最喜欢的电子游戏,并且刚刚进入一个奖励关.在这个奖励关里,系统将依次随机抛出k次宝物,每次你都可以选择吃或者不吃(必须在抛出下一个宝物之前做出选择,且现在决定不吃的宝物以后也不能再 ...

  4. ZOJ3261:Connections in Galaxy War(逆向并查集)

    Connections in Galaxy War Time Limit: 3 Seconds      Memory Limit: 32768 KB 题目链接:http://acm.zju.edu. ...

  5. function(data)

    转:http://blog.csdn.net/lixld/article/details/12206367 之前用了$.post()已经很久了,可是从来没有好好研究过这里的data对象,今天好好总结下 ...

  6. jquery的ajax实现方式

    在JQuery中,AJAX有三种实现方式:$.ajax() , $.post , $.get(). 首先我们看$.get(): .代码如下: $.get("test.jsp", { ...

  7. import pymongo exceptions.ImportError: No module named pymongo

    最近用Scrapy写爬虫,将爬取的数据存入Mongodb中,使用的是pymongo这个库,但是运行的时候报错如标题所示 搜了好多网站包括stackoverflow都没有解决,后来发现自己用的是虚拟环境 ...

  8. Spring学习--引用其他Bean , 内部Bean

    引用其他Bean: 组成应用程序的 Bean 经常需要相互协作以完成应用程序的功能 , 要使 Bean 能够相互访问, 就必须在 Bean 配置文件中指定对 Bean 的引用. 在 Bean 的配置文 ...

  9. 通过监测DLL调用探测Mimikatz

    通过Sysmon的-l参数可以探测到DLL加载(ImageLoaded): REF: https://securityriskadvisors.com/blog/post/detecting-in-m ...

  10. python脚本运行的几种方式

    1.脚本式编程 将如下代码拷贝至 hello.py文件中: print ("Hello, Python!"); 通过以下命令执行该脚本: $ python ./hello.py h ...