1.伪分布式hdfs文件系统的搭建(单节点文件系统)

  1.1.根据上节的讲解,配置主机映射、jdk和解压hadoop压缩包

  1.2.配置namenode

    在/opt/modules/hadoop-2.5.0/etc/hadoop/core-site.xml中配置一下内容

     <!--配置namenode所在主机和端口-->
        <property>
            <name>fs.defaultFS</name>
            <value>hdfs://life-hadoop.life.com:8020</value>
       </property>

    <!--配置数据临时目录 如果不存在需要先创建给目录-->
    <property>
      <name>hadoop.tmp.dir</name>
      <value>/opt/modules/hadoop-2.5.0/data/temp</value>
    </property>
    
    <!--配置删除的文件在垃圾箱中存储的时间,单位:分钟-->
    <property>
      <name>fs.trash.interval</name>
      <value>10080</value>
    </property>

    1.2.1.格式化文件系统

      [yanglin@life-hadoop hadoop-2.5.0]$ bin/hdfs namenode -format

    1.2.2.运行[yanglin@life-hadoop hadoop-2.5.0]$ sbin/hadoop-daemon.sh start namenode查看是否启动成功

      

     或者在浏览器中输入life-hadoop:50070  其中life-hadoop为主机名

      

   1.3.配置secondarynamenode

      1.3.1.在/opt/modules/hadoop-2.5.0/etc/hadoop/hdfs-site.xml中配置一下内容

        <!--配置secondarynamenode所在的主机-->
        <property>
          <name>dfs.namenode.secondary.http-address</name>
          <value>life-hadoop.life.com:50090</value>
        </property>

      1.3.2.运行[yanglin@life-hadoop hadoop-2.5.0]$ sbin/hadoop-daemon.sh start secondarynamenode

        

   1.4.配置datanode

    1.4.1.在/opt/modules/hadoop-2.5.0/etc/hadoop/hdfs-site.xml中配置一下内容

      <!--配置备份数-->
      <property>
        <name>dfs.replication</name>
        <value>1</value>
      </property>

    1.4.2.在/opt/modules/hadoop-2.5.0/etc/hadoop/salves中配置datanode所在的主机

      

    1.4.3.运行[yanglin@life-hadoop hadoop-2.5.0]$ sbin/hadoop-daemon.sh start datanode命令启动datanode

      

2.到此我们的伪分布式文件系统已经配置完成,接下来进行测试

  2.1.查看当前文件系统的目录

    [yanglin@life-hadoop hadoop-2.5.0]$ bin/hdfs dfs -ls -R /

    或者

      

  2.2.创建目录

    创建/user/yanglin/conf目录

    [yanglin@life-hadoop hadoop-2.5.0]$ bin/hdfs dfs -mkdir -p /user/yanglin/conf

    可以通过web浏览器进行验证是否创建成功

  2.3.上传文件

    将本地的etc/hadoop/*-site.xml文件上传到/user/yanglin/conf目录中

    [yanglin@life-hadoop hadoop-2.5.0]$ bin/hdfs dfs -put etc/hadoop/*-site.xml /user/yanglin/conf

  2.4.下载文件

    将服务器中的/user/yanglin/conf/core-site.xml下载到当前目录

    [yanglin@life-hadoop hadoop-2.5.0]$ bin/hdfs dfs -get /user/yanglin/conf/core-site.xml

    

  2.5.查看指定文件的内容

    查看/user/yanglin/conf/core-site.xml文件的内容

    [yanglin@life-hadoop hadoop-2.5.0]$ bin/hdfs -cat /user/yanglin/conf/core-site.xml

    

  2.6.删除指定文件或目录

    删除/user/yanglin/conf/test.txt文件

    [yanglin@life-hadoop hadoop-2.5.0]$ bin/hdfs dfs -rm -r /user/yanglin/conf/test.txt

  2.7.跟多hdfs命令可以使用[yanglin@life-hadoop hadoop-2.5.0]$ bin/hdfs dfs查看

    

3.将wrodcount程序运行到hdfs文件系统上

  3.1.创建目录

    [yanglin@life-hadoop hadoop-2.5.0]$ bin/hdfs -mkdir -p /user/yanglin/mapreduce/wordcount/input/

  3.2.将测试文件上传到input目录中

    [yanglin@life-hadoop hadoop-2.5.0]$ bin/hdfs -put wcinput/wc.input /user/yanglin/mapreduce/wordcount/input/

  3.3.运行mapreduce程序将运行结果上传到hdfs文件系统

    [yanglin@life-hadoop hadoop-2.5.0]$ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.5.0.jar wordcount /user/yanglin/mapreduce/wordcount/input /user/yanglin/mapreduce/wordcount/output

    查看是否运行成功:

      

      或者通过

        [yanglin@life-hadoop hadoop-2.5.0]$ bin/hdfs dfs -ls /user/yanglin/mapreduce/wordcount/output

        

    查看运行结果:

      [yanglin@life-hadoop hadoop-2.5.0]$ bin/hdfs dfs -text /user/yanglin/mapreduce/wordcount/output/part*

      

4.将项目运行到yarn上

  4.1.配置resourcemanager节点

    4.1.1.在/opt/modules/hadoop-2.5.0/etc/hadoop/yarn-site.xml中配置一下内容

      <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
      </property>
    
      <!--配置resourcemanager所在的主机-->
      <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>life-hadoop.life.com</value>
      </property>

    4.1.2.在/opt/modules/hadoop-2.5.0/etc/hadoop/mapred-site.xml中配置一下内容

      <!--配置使用的yarn框架来运行mapreduce-->
        <property>
            <name>mapreduce.framework.name</name>
            <value>yarn</value>
        </property>

  4.2.配置nodemanager节点

    和datanode节点配置一样都是在/opt/modules/hadoop-2.5.0/etc/hadoop/salves文件中

  4.3.启动yarn

    4.3.1.启动resourcemanager节点

      [yanglin@life-hadoop hadoop-2.5.0]$ sbin/yarn-daemon.sh start  resourcemanager

      

    4.3.2.启动nodemanager节点

      [yanglin@life-hadoop hadoop-2.5.0]$ sbin/yarn-daemon.sh start  nodemanager

      

      或者在浏览器中输入life-hadoop:8088

      

    4.3.3.将wordcount程序运行在yarn上

      [yanglin@life-hadoop hadoop-2.5.0]$ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.5.0.jar wordcount /user/yanglin/mapreduce/wordcount/input /user/yanglin/mapreduce/wordcount/output

      和3.3一样查看是否运行成功或者

      

       单点击history是不能显示,是因为没有配置日志聚集功能

5.配置日志聚集

  在/opt/modules/hadoop-2.5.0/etc/hadoop/yarn-site.xml中配置一下内容

  <!-- 配置日志聚集-->
  <property>
    <name>yarn.log-aggregation-enable</name>
    <value>true</value>
  </property>
    
  <!-- 配置日志的有效时间 7天 单位为秒-->
  <property>
    <name>yarn.log-aggregation.retain-check-interval-seconds</name>
    <value>604800</value>
  </property>

  重启resouremangager和nodemanger重新运行wordcount程序即可

hadoop2.0初识1.1的更多相关文章

  1. hadoop2.0初识1.3

    1.配置分布式hadoop 1.1 准备三台测试机(虚拟机就可以) 1.1.1 将life-hadoop虚拟机克隆2个分别为life-hadoop02和life-hadoop03 1.1.2 查看ip ...

  2. hadoop2.0初识1.0

    1.给普通用户设置sudo权限 编辑:[root@life-hadoop /]# nano /etc/sudoers 在文件头部加入:yanglin ALL=(root)NOPASSWD:ALL 保存 ...

  3. hadoop2.0初识1.2

    1 hadoop启动方式(三种) 1.1 各个服务组件逐一启动 *dfs hadoop-daemon.sh start|stop namenode|datanode|secondarynamenode ...

  4. hadoop入门(3)——hadoop2.0理论基础:安装部署方法

    一.hadoop2.0安装部署流程         1.自动安装部署:Ambari.Minos(小米).Cloudera Manager(收费)         2.使用RPM包安装部署:Apache ...

  5. Hadoop2.0(HDFS2)以及YARN设计的亮点

    YARN总体上仍然是Master/Slave结构,在整个资源管理框架中,ResourceManager为Master,NodeManager为Slave,ResouceManager负责对各个Node ...

  6. hadoop2.0 和1.0的区别

    1. Hadoop 1.0中的资源管理方案Hadoop 1.0指的是版本为Apache Hadoop 0.20.x.1.x或者CDH3系列的Hadoop,内核主要由HDFS和MapReduce两个系统 ...

  7. Hadoop2.0重启脚本

    Hadoop2.0重启脚本 方便重启带ha的集群,写了这个脚本 #/bin/bash sh /opt/zookeeper-3.4.5-cdh4.4.0/bin/zkServer.sh restart ...

  8. ganglia监控hadoop2.0配置方法

    ganglia监控hadoop2.0配置方法前提:hadoop2.0集群已安装ganglia监控工具第一步:Hadoop用户登录集群每一个节点,修改文件:vi /opt/hadoop-2.0.0-cd ...

  9. hadoop-2.0.0-mr1-cdh4.2.0源码编译总结

    准备编译hadoop-2.0.0-mr1-cdh4.2.0的同学们要谨慎了.首先看一下这篇文章: Hadoop作业提交多种方案 http://www.blogjava.net/dragonHadoop ...

随机推荐

  1. as关键词还有另外一个用途,那就是修改 方法 的访问控制

    PHP是单继承的语言,在PHP 5.4 Traits出现之前,PHP的类无法同时从两个基类继承属性或方法.php的Traits和Go语言的组合功能类似,通过在类中使用use关键字声明要组合的Trait ...

  2. gvim配置

    colorscheme darkblue set lines=100 set columns=150

  3. JS开发windows phone8.1系列之3

    http://msdn.microsoft.com/zh-cn/library/windows/apps/dn629638.aspx 这部分主要是使用页面导航 管理方式,在程序的default.htm ...

  4. 我自己的Javascript 库,封装了一些常用函数 Kingwell.js

    我自己的Javascript 库,封装了一些常用函数 Kingwell.js 博客分类: Javascript javascript 库javascript库  现在Javascript库海量,流行的 ...

  5. Oracle中PL/SQL简介、基本语法以及数据类型

    Oracle中PL/SQL简介.基本语法以及数据类型 一.PL/SQL简介. Oracle PL/SQL语言(Procedural Language/SQL)是结合了结构化查询和Oracle自身过程控 ...

  6. Eclipse设置自动换行

    Eclipse 使用系统内置的“ Text Editor ”做为文本编辑器,这个文本编辑器有一个问题,就是文本无法换行.这个问题在显示上给人们带来不少麻烦. 终于有人忍不住开发了一个扩展插件 Word ...

  7. 微软良心之作——Visual Studio Code 开源免费跨平台代码编辑器

    微软良心之作——Visual Studio Code 开源免费跨平台代码编辑器 在 Build 2015 大会上,微软除了发布了 Microsoft Edge 浏览器和新的 Windows 10 预览 ...

  8. Java基础必备 -- 堆栈、引用传值、垃圾回收等

     在Java中,对象作为函数参数的传递方式是值传递还是引用传递?String str = "abc" 与 String str = new String("abc&quo ...

  9. YII2.0--------这篇文章记录我学习YII2.0的过程吧,也可以让更多的人少走弯路

    1.情况:今天我从github上下载了一个项目,本以为直接丢到根目录运行就行了,但是不行. 解决办法:首先安装git,安装步骤这里不讲了,稍微讲一下配置环境变量.

  10. JS---------IIFE(Imdiately Invoked Function Expression 立即执行的函数表达式)

    +function($){}(jQuery); 今天看到js代码里面有这个格式的代码,不知道啥意思,就去查了一下,我也是js小白.首先前面的+号,这个不是固定非要写+号,只要写一级运算符都可以.目的是 ...