1、准备软件

 64位下载包下载:     hadoop-2.4.0-64bit.tar.gz
百度网盘:
链接: http://pan.baidu.com/s/1hqEDe2S password: 224f
链接: http://pan.baidu.com/s/1gdl95OB password: h6dc

2、安装JDK

直接运行安装命令:sudo apt-get install openjdk-7-jdk

3、安装Hadoop

3.1上传hadoop压缩文件

通过之前配置的FlashFXP直接将文件上传到Ubuntu上

3.2解压hadoop文件

sudo tar -xzvf /tmp/hadoop-2.4.0-64bit.tar.gz

3.3配置hadoop文档

文档1:sudo vi profile(注意,这里说的etc不是hadoop文件夹下的那个,是用户根文件夹下的。

在末尾加入:)

export JAVA_HOME=/usr/lib/jvm/java-1.7.0-openjdk-amd64
export HADOOP_PREFIX=/home/YXC/hadoop-2.4.0
export CLASSPATH=".:$JAVA_HOME/lib:$CLASSPATH"
export PATH="$JAVA_HOME/:$HADOOP_PREFIX/bin:$PATH"
export HADOOP_PREFIX PATH CLASSPATH

文档2:hadoop-env.sh 进入hadoop2.4.0目录,配置etc/hadoop中的文件
export JAVA_HOME=/usr/lib/jvm/java-7-openjdk-i386

文档3:core-site.xml
<configuration>
     <property>
         <name>fs.default.name</name>
         <value>hdfs://localhost:9000</value>
     </property>
     <property>
         <name>dfs.namenode.name.dir</name>
         <value>file:/home/YXC/hadoop-2.4.0/dfs/name</value>
     </property>
     <property>
         <name>dfs.datanode.data.dir</name>
         <value>file:/home/YXC/hadoop-2.4.0/dfs/data</value>
     </property>
</configuration>

文档4:hdfs-site.xml(系统默认文件保存3份,因伪分布模式。故改为1份)
<configuration>
  <property>
      <name>dfs.replication</name>  
      <value>1</value>  
      <description>Default block replicied when the file is created. The default </description>  
  </property>  
  <property>
      <name>dfs.namenode.name.dir</name>
      <value>/home/YXC/hadoop-2.4.0/dfs/name</value>
  <property>
  <property>
      <name>dfs.namenode.data.dir</name>
      <value>/home/YXC/hadoop-2.4.0/dfs/data</value>
  <property>
<configuration>

文档5:mapred-site.xml
(注意改动文件后缀:sudo mv mapred-site.xml.template mapred-site.xml)
<configuration>
  <property>
    <name>mapreduce.jobtracker.address</name>
    <value>localhost:9001</value>
  </property>
</configuration>

文档6:yarn-site.xml
<configuration>
<!-- Site specific YARN configuration properties -->
 <property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
 </property>
 <property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
 </property>
</configuration>

4、SSH免password登录

      之前已经配置,不再赘述。

ssh localhost
要是能免password登陆显示系统信息。就应该是对的。(这里有个输入password环节,是系统的password)。

5、開始终极配置

5.1到hadoop2.4.0文件夹下

./bin/hadoop namenode –format格式化结点信息
假设出现  HADOOP_HDFS_HOME
not found!
关掉虚拟机重新启动就可以。

5.2開始sbin/start-all.sh.

运行 jps 则出现:

表明成功!
浏览器下http://ip:50070 这是hdfs的页面!




本地搭建Hadoop伪分布式环境之四:开启搭建Hadoop2.4.0之旅的更多相关文章

  1. 基于Centos搭建 Hadoop 伪分布式环境

    软硬件环境: CentOS 7.2 64 位, OpenJDK- 1.8,Hadoop- 2.7 关于本教程的说明 云实验室云主机自动使用 root 账户登录系统,因此本教程中所有的操作都是以 roo ...

  2. [转]搭建Hadoop伪分布式环境

    https://my.oschina.net/MyHeaven1987/blog/1821509 http://hadoop.apache.org/docs/current/hadoop-projec ...

  3. 搭建hadoop伪分布式环境

    伪分布式就是只有一台机器,既是namenode又是datanode.一台阿里云服务器(centos)即可完成. Java环境 首先需要安装Java环境,下载jdk的安装包,解压到/usr/java/, ...

  4. 【Hadoop离线基础总结】CDH版本Hadoop 伪分布式环境搭建

    CDH版本Hadoop 伪分布式环境搭建 服务规划 步骤 第一步:上传压缩包并解压 cd /export/softwares/ tar -zxvf hadoop-2.6.0-cdh5.14.0.tar ...

  5. Hadoop伪分布式环境搭建+Ubuntu:16.04+hadoop-2.6.0

    Hello,大家好 !下面就让我带大家一起来搭建hadoop伪分布式的环境吧!不足的地方请大家多交流.谢谢大家的支持 准备环境: 1, ubuntu系统,(我在16.04测试通过.其他版本请自行测试, ...

  6. CentOS7下Hadoop伪分布式环境搭建

    CentOS7下Hadoop伪分布式环境搭建 前期准备 1.配置hostname(可选,了解) 在CentOS中,有三种定义的主机名:静态的(static),瞬态的(transient),和灵活的(p ...

  7. 《OD大数据实战》Hadoop伪分布式环境搭建

    一.安装并配置Linux 8. 使用当前root用户创建文件夹,并给/opt/下的所有文件夹及文件赋予775权限,修改用户组为当前用户 mkdir -p /opt/modules mkdir -p / ...

  8. Hadoop-01 搭建hadoop伪分布式运行环境

    Linux中配置Hadoop运行环境 程序清单 VMware Workstation 11.0.0 build-2305329 centos6.5 64bit jdk-7u80-linux-x64.r ...

  9. hadoop学习笔记(五)hadoop伪分布式集群的搭建

    本文原创,如需转载,请注明作者和原文链接 1.集群搭建的前期准备   见      搭建分布式hadoop环境的前期准备---需要检查的几个点 2.解压tar.gz包 [root@node01 ~]# ...

随机推荐

  1. redis.clients.jedis.exceptions.JedisDataException: MISCONF Redis is configured to save RDB snapshots

    最近在学习Redis ,在写test测试的时候碰到这个报错: redis.clients.jedis.exceptions.JedisDataException: MISCONF Redis is c ...

  2. 通过 purge_relay_logs 自动清理relaylog

    使用背景 线上物理备份任务是在从库上进行的,xtrabackup会在备份binlog的时候执行flush logs,relay-log会rotate到新的一个文件号,导致sql thread线程应用完 ...

  3. 前端构建工具gulpjs的使用介绍及技巧(转)

    http://www.cnblogs.com/2050/p/4198792.html gulpjs是一个前端构建工具,与gruntjs相比,gulpjs无需写一大堆繁杂的配置参数,API也非常简单,学 ...

  4. flink原理介绍-数据流编程模型v1.4

    数据流编程模型 抽象级别 程序和数据流 并行数据流 窗口 时间 有状态操作 检查点(checkpoint)容错 批量流处理 下一步 抽象级别 flink针对 流式/批处理 应用提供了不同的抽象级别. ...

  5. hash function 字符串哈希函数

    #include <stdio.h> int hash(const char *str) { ; ;;i++) { if (str[i] == '\0') break; sum += (( ...

  6. Codevs 1993 草地排水

    1993 草地排水 时间限制: 2 s 空间限制: 256000 KB 题目等级 : 钻石 Diamond 题目描述 Description 在农夫约翰的农场上,每逢下雨,Bessie最喜欢的三叶草地 ...

  7. c# dynamic,maybe I should say it is just some shortcut for "Object", box and unbox, without the cast

    dynamic: void Main() { var b="2"; dynamic a="2"; if(a.GetType()==typeof(int))b+= ...

  8. ubuntu php编译安装配置

    安装参考:http://ilanni.blog.51cto.com/526870/1569322/ 加载扩展的一些参数参考:http://java-er.com/blog/nginx-php-fpm/

  9. C#图解教程学习笔记——委托

    一.委托概述委托和类一样,是用户自定义类型,也是引用类型.但类表示的是数据和方法的集合,而委托持有一个或多个方法,以及一系列预定义操作. 可以通过以下操作步骤来使用委托:(1)声明一个委托类型.委托声 ...

  10. 介绍Node.JS

    几年前,完全放弃Asp.net,彻底脱离微软方向.Web开发,在公司团队中,一概使用Node.js.Mongodb.Git,替换Asp.net mvc.Sql server和Tfs.当时来看,这是高风 ...