前期准备工作:

1.改动Linux主机名:/etc/hostname

                        ubuntu系统:vi /etc/hostname

                        将ubuntu默认的主机名ubuntu改为suh01



2.改动IP:/etc/network/interfaces

                        改动配置文件/etc/network/interfaces

                        vi /etc/network/interfaces

                        #将原来的内容凝视掉:

                        #auto lo

                        #iface lo inet loopback

                        #然后加入下面内容:

                        auto eth0                  #设置自己主动启动eth0接口

                        iface eth0 inet static     #配置静态IP

                        address 192.168.1.101      #IP地址

                        netmask 255.255.255.0      #子网掩码

                        gateway 192.168.1.1        #默认网关



3.改动主机名和IP的映射关系:/etc/hosts

                        vi /etc/hosts                

                        #127.0.0.1      localhost                

                        192.168.1.201        suh01

                        192.168.1.202        suh02

                        192.168.1.203        suh03



4.查看防火墙状态、关闭防火墙:ufw status 、ufw disable



5.安装JDK,配置环境变量等。

        5.1上传:使用ftp工具上传jdk安装文件

            #创建文件夹,将安装文件上传至此文件夹下

                 mkdir /usr/java

        

        5.2解压jdk

                tar -zxvf jdk-7u76-linux-x64.tar.gz

                                

        5.3将java加入到环境变量中

                vi /etc/profile

                #在文件最后加入

                export JAVA_HOME=/usr/java/jdk1.7.0_76

                export PATH=$PATH:$JAVA_HOME/bin

                

                #刷新配置

                source /etc/profile



6.ssh免登陆:

    6.1在suh01上运行:

       ssh-keygen -t rsa (直接回车)

           运行完这个命令后。会生成两个文件id_rsa(私钥)、id_rsa.pub(公钥)

           

    6.2然后将公钥复制到要免登陆的机器上        

                ssh-copy-id suh01  (最好也给自己设置免登陆)

                ssh-copy-id suh02 

                ssh-copy-id suh03





集群规划:

        主机名                IP                       安装的软件                                        执行的进程

        suh01        192.168.1.201           jdk、hadoop                        NameNode、JobTracker、SecondaryNameNode

        suh02        192.168.1.202           jdk、hadoop                                        DataNode、TaskTracker

        suh03        192.168.1.203           jdk、hadoop                                        DataNode、TaskTracker

        



IP与主机名映射关系

-----------------------        

192.168.1.201        suh01

192.168.1.202        suh02

192.168.1.203        suh03

-----------------------        

        



安装步骤:        

        1.安装配置hadoop集群(总共改动了六个配置文件:hadoo-env.sh、core-site.xml、hdfs-site.xml、slaves、yarn-site.xml、mapred-site.xml )

                1.1上传并解压hadoop安装包解压

                        tar -zxvf hadoop-1.2.1.tar.gz

                        

                1.2配置相关文件(hadoop1.2.1全部的配置文件都在hadoop1.2.1/conf文件夹下)                                                

                        cd /home/suh/hadoop-1.2.1/conf

                        

                        1.2.1改动hadoop-env.sh

                                export JAVA_HOME=/usr/java/jdk1.7.0_76

                                

                        1.2.2改动core-site.xml

                                <configuration>                                        

                                        <property>

                                                <name>fs.default.name</name>

                                                <value>hdfs://suh01:9000</value>

                                        </property>

                                                                                

                                        <property>

                                                <name>hadoop.tmp.dir</name>

                                                <value>/home/suh/hadoop-1.2.1/tmp</value>

                                        </property>

                                </configuration>

                                

                        1.2.3改动hdfs-site.xml

                                <configuration>        

                                        <property>

                                                <name>dfs.replication</name>

                                                <value>2</value>

                                        </property>                                        

                                </configuration>

                                

                        1.2.4 改动mapred-site.xml

                                <configuration>

                                        <property>

                                                <name>mapred.job.tracker</name>

                                                <value>suh01:9001</value>

                                        </property>

                                </configuration>



                        1.2.5改动masters 文件,加入例如以下内容:

                                        suh01                        

                        

                        1.2.6改动slaves 文件,加入例如以下内容:

                                        suh02

                                        suh03        

                

                

                1.3将配置好的hadoop复制到其它节点(为了拷贝更高速,建议把/home/hadoop-2.2.0/share 下的doc文件夹删掉:rm -rf doc)

                        scp -r /home/suh/hadoop-1.2.1/ suh@suh02:/home/suh/

                        scp -r /home/suh/hadoop-1.2.1/ suh@suh03:/home/suh/                        

                                                



======開始启动集群=======                        

                2.1格式化HDFS

                        在hdfs的NameNode机器(suh01)上运行命令:

                        ./bin/hadoop namenode -format

                                                

                2.2启动HDFS(在suh01上运行,这里最好先配置好免登录,不然会提示输入password。免登陆配置在下文有配置步骤)

                        ./bin/start-all.sh

                        

                        运行成功后进行相关检验:

                         (1)、suh01上多了NameNode、JobTracker、SecondaryNameNode进程。

                         (2)、接着分别进入到suh02、suh03机器,执行jps命令查看,发现它也启动好了DataNode、TaskTracker进程。

                

                         

======hadoop集群启动成功后。进行測试======                 

                3.1到此,hadoop1.2.1配置完成,能够进行浏览器訪问:

                        http://192.168.1.201:50070



                3.2执行wordcount測试

                    hdfs上创建文件夹:

                        ./bin/hadoop fs -mkdir /in

                        

                    从linux上传測试数据文件到hdfs上:

                        ./bin/hadoop fs -put /home/suh/test1 /in

                        

                        运行測试样例:

                        ./bin/hadoop jar hadoop-examples-1.2.1.jar wordcount /in/ /out

Hadoop1.2.1 全然分布式集群搭建实操笔记的更多相关文章

  1. hadoop2.7全然分布式集群搭建以及任务測试

    要想深入的学习hadoop数据分析技术,首要的任务是必需要将hadoop集群环境搭建起来,本文主要讲述怎样搭建一套hadoop全然分布式集群环境. 环境配置:2台64位的redhat6.5 +  1台 ...

  2. Mysql集群搭建-实操

    集群安装--准备工作 官网地址 https://dev.mysql.com/doc/refman/5.7/en/mysql-cluster-install-linux-binary.html 一.环境 ...

  3. Hadoop上路-01_Hadoop2.3.0的分布式集群搭建

    一.配置虚拟机软件 下载地址:https://www.virtualbox.org/wiki/downloads 1.虚拟机软件设定 1)进入全集设定 2)常规设定 2.Linux安装配置 1)名称类 ...

  4. hadoop伪分布式集群搭建与安装(ubuntu系统)

    1:Vmware虚拟软件里面安装好Ubuntu操作系统之后使用ifconfig命令查看一下ip; 2:使用Xsheel软件远程链接自己的虚拟机,方便操作.输入自己ubuntu操作系统的账号密码之后就链 ...

  5. Hadoop分布式集群搭建

    layout: "post" title: "Hadoop分布式集群搭建" date: "2017-08-17 10:23" catalog ...

  6. hbase分布式集群搭建

    hbase和hadoop一样也分为单机版.伪分布式版和完全分布式集群版本,这篇文件介绍如何搭建完全分布式集群环境搭建. hbase依赖于hadoop环境,搭建habase之前首先需要搭建好hadoop ...

  7. 分布式实时日志系统(四) 环境搭建之centos 6.4下hbase 1.0.1 分布式集群搭建

    一.hbase简介 HBase是一个开源的非关系型分布式数据库(NoSQL),它参考了谷歌的BigTable建模,实现的编程语言为 Java.它是Apache软件基金会的Hadoop项目的一部分,运行 ...

  8. kafka系列二:多节点分布式集群搭建

    上一篇分享了单节点伪分布式集群搭建方法,本篇来分享一下多节点分布式集群搭建方法.多节点分布式集群结构如下图所示: 为了方便查阅,本篇将和上一篇一样从零开始一步一步进行集群搭建. 一.安装Jdk 具体安 ...

  9. MinIO 分布式集群搭建

    MinIO 分布式集群搭建 分布式 Minio 可以让你将多块硬盘(甚至在不同的机器上)组成一个对象存储服务.由于硬盘分布在不同的节点上,分布式 Minio 避免了单点故障. Minio 分布式模式可 ...

随机推荐

  1. 【bzoj2048】[2009国家集训队]书堆 数论

    题目描述 输入 第一行正整数 N M 输出 一行(有换行符),L,表示水平延伸最远的整数距离 (不大于答案的最大整数) 样例 #1 Input: 1 100 Output: 49 #2 Input: ...

  2. 利用Docker搭建本地https环境的完整步骤

    利用Docker搭建本地https环境的完整步骤 这篇文章主要给大家介绍了关于如何利用Docker搭建本地https环境的完整步骤,文中通过示例代码将实现的步骤介绍的非常详细,对大家的学习或者工作具有 ...

  3. mongoDB权威指南学习笔记

    //mongoDB第1-3章节添加,修改,修改器的笔记: //备注:和MySQL查询一样,时刻想着优化查询数据的时间和性能 //db.help() //数据库帮助信息 //db.blog.help() ...

  4. loj 6278 6279 数列分块入门 2 3

    参考:「分块」数列分块入门1 – 9 by hzwer 2 Description 给出一个长为\(n\)的数列,以及\(n\)个操作,操作涉及区间加法,询问区间内小于某个值\(x\)的元素个数. 思 ...

  5. synchronous interrupt and asynchronous interrupt

    Asynchronous interrupt 中斷请求信号来自CM3内核的外面,来自各种片上外设和外扩的外设,对CM3来说是"异步"的: e.g. usb otg device S ...

  6. python 高阶函数和匿名函数

    #!/usr/bin/env python # -*- coding:utf-8 -*- # @Time : 2017/11/02 22:46 # @Author : lijunjiang # @Fi ...

  7. andorid人员文件上传服务器的搭建(tomcat中)

    1.将.war文件复制到tomcat服务器webapps下,启动服务器即可 2.访问工程路径http://localhost:8080/FileUpload/index.jsp即可测试上传 3.测试成 ...

  8. AC日记——【模板】树链剖分 洛谷 P3384

    题目描述 如题,已知一棵包含N个结点的树(连通且无环),每个节点上包含一个数值,需要支持以下操作: 操作1: 格式: 1 x y z 表示将树从x到y结点最短路径上所有节点的值都加上z 操作2: 格式 ...

  9. JS-JavaScript String 对象-string对象方法1:fromCharCode()、charCodeAt()

    1.fromCharCode(): 可接受一个指定的 Unicode 值,然后返回一个字符串. 1). 语法:String.fromCharCode(n1, n2, ..., nX)  (n1, n2 ...

  10. Jmeter脚本两种录制方式

    Jmeter 是一个非常流行的性能测试工具,虽然与LoadRunner相比有很多不足,比如:它结果分析能力没有LoadRunner详细:很它的优点也有很多:   l       开源,他是一款开源的免 ...