hadoop3与hadoop2.x的变化很大,hadoop3很多东西现在做起来太麻烦了,这里先安装hadoop2.7.3

此贴学习地址http://www.yiibai.com/t/mapreduce/article-14.html,不过有些改动

1.下载解压hadoop包

wget http://apache.claz.org/hadoop/common/hadoop-2.7.3/hadoop-2.7.3.tar.gz

tar zxf hadoop-2.7.3.tar.gz

mv hadoop-2.7.3/* to hadoop

2.设置hadoop

#刚刚解压的hadoop的位置

HADOOP_HOME=/home/xiabin/hadoop/hadoop
HADOOP_MAPRED_HOME=$HADOOP_HOME
HADOOP_COMMON_HOME=$HADOOP_HOME
HADOOP_HDFS_HOME=$HADOOP_HOME
YARN_HOME=$HADOOP_HOME
HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native

保存退出文件

source ~/.bashrc让bashrc文件立即生效

3.进入hadoop的 etc/hadoop文件

cd $HADOOP_HOME/etc/hadoop

将export JAVA_HOME={JAVA_HOME}改成自己的java路径

我这里:JAVA_HOME=/usr/java/jdk1.8.0_112

4.编辑以下文件来配置Hadoop

core-site.xml
hdfs-site.xml
yarn-site.xml
mapred-site.xml

5.

core-site.xml 包含以下信息 
用于Hadoop实例的端口号
存储器分配用于文件系统
内存限制用于存储数据
读/写缓存大小
打开core-site.xml,在标签之间添加以下属性

编辑:core-site.xml在configuration中加入

<property>
<name>fs.default.name</name>
<value>hdfs://0.0.0.0:9000</value>
</property>

6.hdfs-site.xml 包含以下信息

复制数据的值
NameNode的路径
本地文件系统的数据节点的路径(要存储Hadoop下文的地方)

在它的configuration中间加入

dfs.replication 1   dfs.name.dir file:///home/hadoop/hadoopinfra/hdfs/namenode   dfs.data.dir file:///home/hadoop/hadoopinfra/hdfs/datanode

这是namenode和datanode的地址,这些地址可以根据自己的喜好配置

7.yarn-site.xml

此文件用于配置yarn 到Hadoop 。打开yarn-site.xml 文件,并在标记之间添加以下属性。

yarn.nodemanager.aux-services mapreduce_shuffle

8.mapred-site.xml

此文件用于指定我们正在使用MapReduce框架。默认情况下,Hadoop含有yarn-site.xml模板。首先,需要将文件从mapred-site.xml 复制。使用以下命令复制模板 mapred-site.xml 文件。

cp mapred-site.xml.template mapred-site.xml

在configuration中加入:mapreduce.framework.name yarn

9.设置名称节点使用命令 “hdfs namenode -format” 如下

$ cd ~
$ hdfs namenode -format

验证Hadoop dfs(节点)

$ start-dfs.sh

第3步 - 验证Yarn 脚本(管理节点的平台)
以下命令用于启动yarn 脚本。执行该命令将启动yarn 守护进程。
$ start-yarn.sh

10测试访问

IP:50070(如果在服务器上面配置的hadoop记得开启50070端口的防火墙)

访问IP:8088

11配置hdfs的下的文件

新建用户: hdfs dfs -mkdir /waterlufei

新建目录: hdfs dfs -mkdir /waterlufei/hadoop

新建目录: hdfs dfs -mkdir /waterlufei/hadoop/input

将dream.txt放入到input文件夹下: hdfs dfs -put dream.txt /waterlufei/hadoop/input

查看hdfs下所有的目录: hdfs dfs -ls /

查看hdfs下某个目录:hdfs dfs -ls /waterlufei/hadoop/input

安装hadoop2.7.3的更多相关文章

  1. 一、Ubuntu14.04下安装Hadoop2.4.0 (单机模式)

    一.在Ubuntu下创建hadoop组和hadoop用户 增加hadoop用户组,同时在该组里增加hadoop用户,后续在涉及到hadoop操作时,我们使用该用户. 1.创建hadoop用户组 2.创 ...

  2. Ubuntu 14.04下安装Hadoop2.4.0 (单机模式)

    转自 http://www.linuxidc.com/Linux/2015-01/112370.htm 一.在Ubuntu下创建Hadoop组和hadoop用户 增加hadoop用户组,同时在该组里增 ...

  3. Ubuntu14.04下安装Hadoop2.5.1 (单机模式)

    本文地址:http://www.cnblogs.com/archimedes/p/hadoop-standalone-mode.html,转载请注明源地址. 欢迎关注我的个人博客:www.wuyudo ...

  4. 二、Ubuntu14.04下安装Hadoop2.4.0 (伪分布模式)

    在Ubuntu14.04下安装Hadoop2.4.0 (单机模式)基础上配置 一.配置core-site.xml /usr/local/hadoop/etc/hadoop/core-site.xml ...

  5. CentOS7安装Hadoop2.7完整流程

    总体思路,准备主从服务器,配置主服务器可以无密码SSH登录从服务器,解压安装JDK,解压安装Hadoop,配置hdfs.mapreduce等主从关系. 1.环境,3台CentOS7,64位,Hadoo ...

  6. OS X Yosemite下安装Hadoop2.5.1伪分布式环境

    最近开始学习Hadoop,一直使用的是公司配好的环境.用了一段时间后发现对Hadoop还是一知半解,故决定动手在本机上安装一个供学习研究使用.正好自己用的是mac,所以没啥说的,直接安装. 总体流程 ...

  7. CentOS7安装Hadoop2.7流程

     准备3个虚拟机节点 其实这一步骤非常简单,如果你已经完成了第2步,此时你已经准备好了第一个虚拟节点,那第二个和第三个虚拟机节点如何准备?可能你已经想明白了,你可以按第2步的方法,再分别安装两遍lin ...

  8. CentOS上安装Hadoop2.7,添加数据节点,运行wordcount

    安装hadoop的步骤比较繁琐,但是并不难. 在CentOS上安装Hadoop2.7 1. 安装 CentOS,注:图形界面并无必要 2. 在CentOS里设置静态IP,手工编辑如下4个文件 /etc ...

  9. Kafka:ZK+Kafka+Spark Streaming集群环境搭建(十)安装hadoop2.9.0搭建HA

    如何搭建配置centos虚拟机请参考<Kafka:ZK+Kafka+Spark Streaming集群环境搭建(一)VMW安装四台CentOS,并实现本机与它们能交互,虚拟机内部实现可以上网.& ...

随机推荐

  1. javaSE复习总结

    之前匆匆忙忙学完了java,后来又接着学习ee,然而,越是想要快一点最后反而会更慢一点.因为匆忙间 我几乎什么都没学会.在后面的学习中实在非常吃力.就把javase 的视频大部分又重新看了一遍.真的收 ...

  2. VS2008与opencv结合使用的方法

    使用平台:win7(32位)系统,opencv 2.3.1,vs 2008. 目前在需要在vs上运行KCF视觉跟踪算法,其中有用到opencv的库,刚刚开始遇到的如下问题: 1. 计算机无法找到ope ...

  3. solr6.4.1搜索引擎同步mysql数据库

    尚未成功启动solr的,请参考我的另一篇文章:http://www.cnblogs.com/zhuwenjoyce/p/6506359.html(solr6.4.1 搜索引擎启动eclipse启动) ...

  4. hadoop2.7.2完全分布式环境搭建

      1.先使用groupadd hadoop 建立hadoop用户组 2.新建用户,useradd -d /usr/hadoop -g hadoop -m hadoop (新建用户hadoop指定用户 ...

  5. TableView 多余分割线的处理

    方法一,以下两个方法的实现 - (void)viewDidLoad { [super viewDidLoad]; self.tableView.tableFooterView = [[UIView a ...

  6. Docker存储驱动之Device Mapper简介

    Device Mapper是一个基于kernel的框架,它增强了很多Linux上的高级卷管理技术.Docker的devicemapper驱动在镜像和容器管理上,利用了该框架的超配和快照功能.为了区别, ...

  7. Druid连接池配置(java无框架)

    连接池是一个对数据库连接进行管理的东西,当一个线程需要用 JDBC 对 数据库操作时,它从池中请求一个连接.当这个线程使用完了这个连接,将它返回到连接池中,这样这就可以被其它想使用它的线程使用,而不是 ...

  8. PHP语言开发微信公众平台(订阅号)之开启开发者模式

    (1)打开上一篇我们从花生壳官网获得的外网网址就会看到localhost根目录下的文件(这里不再赘述php环境的搭建).注:因为外网网址在能联网时,访问外网网址的任何人都能看到根目录下的所有文件,不仅 ...

  9. 【树莓派】iptables相关配置

    关于iptables的配置,参见官方资料:http://wiki.ubuntu.org.cn/IptablesHowTo 最好. 进入iptables # sudo iptables -L 列出目前的 ...

  10. bing翻译API调用方法

    概述 前一段时间,遇到一个需求,需要对文章进行翻译,由于客户公司员工有国内的人员,也有国外的人员,为了照顾国外的同事,客户提出,当用户在手机端发布帖子,需要同时把帖子的内容翻译成英文,方便用户阅读.于 ...