搭建伪分布环境

  • 上传hadoop2.7.0编译后的包并解压到/zzy目录下

mkdir /zzy

解压

tar -zxvf hadoop.2.7.0.tar.gz -C /zzy

 

 

  • 配置hadoop

注意:hadoop2.x的配置文件$HADOOP_HOME/etc/hadoop

    伪分布式需要修改5个配置文件

第一个:hadoop-env.sh

        vim hadoop-env.sh

        #第27行

        export JAVA_HOME=/usr/java/jdk1.7.0_79

        

第二个:core-site.xml

        <!--指定fs的默认名称-->

        <property>

<name>fs.default.name</name>

<value>hdfs://zzy:9000</value>

</property>

        <!-- 指定HDFS的老大(NameNode)的地址 -->

        <property>

            <name>fs.defaultFS</name>

            <value>hdfs://zzy:9000</value>

        </property>

        <!-- 指定hadoop运行时产生文件的存储目录 -->

        <property>

            <name>hadoop.tmp.dir</name>

            <value>/zzy/hadoop-2.7.0/tmp</value>

</property>

        

第三个:hdfs-site.xml

        <!-- 指定HDFS副本的数量 -->

        <property>

            <name>dfs.replication</name>

            <value>1</value>

</property>

        

第四个:mapred-site.xml (mv mapred-site.xml.template mapred-site.xml)

        mv mapred-site.xml.template mapred-site.xml

        vim mapred-site.xml

        <!-- 指定mr运行在yarn上 -->

        <property>

            <name>mapreduce.framework.name</name>

            <value>yarn</value>

</property>

        

第五个:yarn-site.xml

        <!-- 指定YARN的老大(ResourceManager)的地址 -->

        <property>

            <name>yarn.resourcemanager.hostname</name>

            <value>zzy</value>

        </property>

        <!-- reducer获取数据的方式 -->

        <property>

            <name>yarn.nodemanager.aux-services</name>

            <value>mapreduce_shuffle</value>

    </property>

  • 将hadoop添加到环境变量

vim /etc/profile

内容如下:

JAVA_HOME=/usr/java/jdk1.7.0_79

HADOOP_HOME=/zzy/hadoop-2.4.1

export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

 

让配置生效:

source /etc/profile

 

  • 格式化namenode(是对namenode进行初始化)

hdfs namenode -format 或者 hadoop namenode -format

 

  • 启动hadoop

     

    • 先启动HDFS

    sbin/start-dfs.sh

        

  • 再启动YARN

    sbin/start-yarn.sh

 

  • 验证是否启动成功

使用jps命令验证

27408 NameNode

28218 Jps

27643 SecondaryNameNode

28066 NodeManager

27803 ResourceManager

27512 DataNode

    

http://192.168.0.2:50070 (HDFS管理界面)

http://192.168.0.2:8088 (MR管理界面)

 

Hadoop环境测试

  • 测试HDFS
    • HDFS shell操作

    #查看帮助

            hadoop fs -help <cmd>

#上传

            hadoop fs -put <linux上文件> <hdfs上的路径>

#查看文件内容

            hadoop fs -cat <hdfs上的路径>

#查看文件列表

            hadoop fs -ls /

#下载文件

            hadoop fs -get <hdfs上的路径> <linux上文件>

 

  • 上传文件到hdfs文件系统上

hadoop fs -put <linux上文件> <hdfs上的路径>

例如:hadoop fs -put /root/install.log hdfs://zzy:9000/

  • 删除hdfs系统文件

hadoop fs -rmr hdfs://zzy:9000/install.log

 

注:如果能正常上传和删除文件说明HDFS没问题。

  • 测试Yarn
    • 上传一个文件到HDFS

    hadoop fs -put words.txt hdfs://zzy:9000/

     

    • 让Yarn来统计一下文件信息

    cd /$HADOOP_HOME/etc/hadoop/share/hadoop/target/mapreduce/

    #测试命令

    hadoop jar hadoop-mapreduce-examples-2.7.0.jar wordcount /works.txt hdfs://zzy:9000/wc

     

     

    注:如果能正常生成一个目录,并把统计信息输出到文件夹下,说明Yarn没问题。

Hadoop之伪分布环境搭建的更多相关文章

  1. 【Hadoop】伪分布式环境搭建、验证

    Hadoop伪分布式环境搭建: 自动部署脚本: #!/bin/bash set -eux export APP_PATH=/opt/applications export APP_NAME=Ares ...

  2. Hadoop.2.x_伪分布环境搭建

    一. 基本环境搭建 1. 设置主机名.静态IP/DNS.主机映射.windows主机映射(方便ssh访问与IP修改)等 设置主机名: vi /etc/sysconfig/network # 重启系统生 ...

  3. Hadoop2.6.0伪分布环境搭建

    用到的软件: 一.安装jdk: 1.要安装的jdk,我把它拷在了共享文件夹里面.   (用优盘拷也可以) 2.我把jdk拷在了用户文件夹下面. (其他地方也可以,不过路径要相应改变) 3.执行复制安装 ...

  4. hbase 单机+伪分布环境搭建学习-1

    1.单机模式: (1)编辑hbase-env.sh user@EBJ1023.local:/usr/local/flume_kafka_stom/hbase_1.1.2> vim conf/hb ...

  5. 【Hadoop基础教程】3、Hadoop之伪分布式环境搭建(转)

    伪分布式模式即单节点集群模式,所有的守护进程都运行在同一台机器上.这种模式下增加了代码调试功能,可以查看内存.HDFS文件系统的输入/输出,以及与其他守护进程交互.以hadoop用户远程登录K-Mas ...

  6. hadoop-2.7.1伪分布环境搭建

    1.准备Linux环境  1.0 点击VMware快捷方式,右键打开文件所在位置 -> 双击vmnetcfg.exe -> VMnet1 host-only ->修改subnet i ...

  7. Hadoop分布环境搭建步骤,及自带MapReduce单词计数程序实现

    Hadoop分布环境搭建步骤: 1.软硬件环境 CentOS 7.2 64 位 JDK- 1.8 Hadoo p- 2.7.4 2.安装SSH sudo yum install openssh-cli ...

  8. Hadoop学习笔记1:伪分布式环境搭建

    在搭建Hadoop环境之前,请先阅读如下博文,把搭建Hadoop环境之前的准备工作做好,博文如下: 1.CentOS 6.7下安装JDK , 地址: http://blog.csdn.net/yule ...

  9. 大数据:Hadoop(JDK安装、HDFS伪分布式环境搭建、HDFS 的shell操作)

    所有的内容都来源与 Hadoop 官方文档 一.Hadoop 伪分布式安装步骤 1)JDK安装 解压:tar -zxvf jdk-7u79-linux-x64.tar.gz -C ~/app 添加到系 ...

随机推荐

  1. 通通的最后一篇博客(附自制html5平面射击小游戏一枚)

    这是我最后一篇博客了,由于本人的人生规划吧,以后应该也写不出什么好的技术文章了,到现在在博客园写了2年, 今天一看,我也有了120个粉丝,好几万的浏览量,感谢大家的支持啊~~ 半年没有写博客了,由于半 ...

  2. 系统安全扫描工具(appscan)的扫描类型小记

    扫描分类 不同场景需要使用不同方式的扫描类型.不能盲目的.暴力的去折腾. 自动扫描 刚开始扫描的时候适合用这种方式.有助于,理解整个网站的结构. 需要注意的是:去伪静态和业务冗余 伪静态 url结构相 ...

  3. Mediator Pattern --中介者模式原理及实现(C++)

    主要参考<大话设计模式>和<设计模式:可复用面向对象软件的基础>两本书.本文介绍中介者模式的实现. 中介者模式:What it is:Define an object that ...

  4. Github上Python开发者应该关心的Repo

    carbaugh/lice lice : Generate license files for your projects 一个用来为你的项目生成许可证的工具.这下可方便了,不用手工的去修改了! co ...

  5. 【niubi-job——一个分布式的任务调度框架】----如何开发一个niubi-job的定时任务

    引言 上篇文章LZ主要讲解了niubi-job如何安装,如果看过上一篇文章的话,大家应该知道,niubi-job执行的任务是需要用户自己上传jar包的. 那么问题来了,这个jar包如何产生?有没有要求 ...

  6. CNN 手写数字识别

    1. 知识点准备 在了解 CNN 网络神经之前有两个概念要理解,第一是二维图像上卷积的概念,第二是 pooling 的概念. a. 卷积 关于卷积的概念和细节可以参考这里,卷积运算有两个非常重要特性, ...

  7. javascript继承(一)—类的属性研究

    本篇文章主要针对javascript的属性进行分析,由于javascript是一种基于对象的语言,本身没有类的概念,所以对于javascript的类的定义有很多名字,例于原型对象,构造函数等,它们都是 ...

  8. JavaScript表单处理(下)

    内容提纲: 1.文本框脚本 2.选择框脚本 发文不易,转载请亲注明链接出处,谢谢!   一.文本框脚本 在HTML中,有两种方式来表现文本框: 一种是单行文本框<input type=" ...

  9. sql-char和varchar,nvarchar的区别

    数据类型的比较 char表示的是固定长度,最长n个字 varchar表示的是实际长度的数据类型 比如:如果是char类型,当你输入字符小于长度时,后补空格:而是varchar类型时,则表示你输入字符的 ...

  10. 【HDU 2203】亲和串

    题 题意 给你一个字符串s1,字符串s2,s1循环移位,使s2包含在s1中,则s2 是s1的亲和串 分析 把s1自身复制一遍接在后面. 方法一: 用strstr函数. 方法二: KMP算法. 方法三: ...