watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvbWFuYnVyZW4wMQ==/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/Center" alt="">

watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvbWFuYnVyZW4wMQ==/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/Center" alt="">--------------------------------------------------

一、单节点的安装

1.伪分布式的安装

1.1 改动ip

(1)打开VMWare或者VirtualBox的虚拟网卡

(2)在VMWare或者VirtualBox设置网络连接方式为host-only

(3)在linux中,改动ip。有上角的图标,右键,选择Edit  Connections....

****ip必须与windows下虚拟网卡的ip在同一个网段,网关必须是存在的。

(4)重新启动网卡。运行命令service network restart

****报错,如no suitable adapter错误。

(5)验证:运行命令ifconfig

1.2 关闭防火墙

(1)运行命令service iptables stop 关闭防火墙

(2)验证:运行命令service iptables status

1.3 关闭防火墙的自己主动开启

(1)运行命令chkconfig iptables off

(2)验证:运行命令chkconfig --list|grep iptables

1.4 改动hostname

(1)运行命令hostname cloud4  改动会话中的hostname

(2)验证:运行命令hostname

(3)运行命令vi  /etc/sysconfig/network 改动文件里的hostname

(4)验证:运行命令reboot -h now 重新启动机器

1.5 设置ip与hostname绑定

(1)运行命令vi  /etc/hosts

在文本最后添加一行192.168.80.100 cloud4

(2)验证:ping cloud4

1.6 ssh免password登陆

(1)运行命令ssh-keygen -t rsa   产生秘钥位于/root/.ssh/

(2)运行命令cp /root/.ssh/id_rsa.pub /root/.ssh/authorized_keys  产生授权文件

(3)验证:ssh localhost

1.7 安装jdk

(1)使用winscp把jdk、hadoop拷贝到linux的/root/Downloads

(2)cp  /root/Downloads/*  /usr/local

(3)cd /usr/local

赋予运行权限 chmod u+x  jdk-6u24-linux-i586.bin

(4)./jdk-6u24-linux-i586.bin

(5)重命名 mv jdk1.6.0_24  jdk

(6)运行命令 vi /etc/profile 环境变量设置  

添加两行 export JAVA_HOME=/usr/local/jdk

export PATH=.:$JAVA_HOME/bin:$PATH

保存退出

  运行命令  source  /etc/profile

(7)验证:运行命令java -version

1.8 安装hadoop

(1)运行命令 tar -zxvf hadoop-1.1.2.tar.gz  解压缩

(2)运行命令  mv hadoop-1.1.2  hadoop

(3)运行命令 vi  /etc/profile  环境变量设置

添加一行 export HADOOP_HOME=/usr/local/hadoop

改动一行 export PATH=.:$HADOOP_HOME/bin:$JAVA_HOME/bin:$PATH

保存退出

  运行命令  source  /etc/profile


(4)验证:运行命令 hadoop

(5)改动位于conf/的配置文件hadoop-env.sh、core-site.xml、hdfs-site.xml、mapred-site.xml

<1>文件hadoop-env.sh的第9行

export JAVA_HOME=/usr/local/jdk/





<2>文件core-site.xml

<configuration>

<property>

<name>fs.default.name</name>

<value>hdfs://cloud4:9000</value>

<description>change your own hostname</description>

</property>

<property>

<name>hadoop.tmp.dir</name>

<value>/usr/local/hadoop/tmp</value>

</property>  

</configuration>

<3>文件hdfs-site.xml

<configuration>

<property>

<name>dfs.replication</name>

<value>1</value>

</property>

<property>

<name>dfs.permissions</name>

<value>false</value>

</property>

</configuration>





<4>文件mapred-site.xml

<configuration>

<property>

<name>mapred.job.tracker</name>

<value>cloud4:9001</value>

<description>change your own hostname</description>

</property>

</configuration>

(6)运行命令 hadoop namenode -format 进行格式化

(7)运行命令 start-all.sh 启动hadoop

(8)验证:

<1>运行命令jps 查看java进程,发现5个进程,各自是NameNode、SecondaryNameNode、DataNode、JobTracker、TaskTracker

<2>通过浏览器查看http://master:50070 和 http://master:50030 

*****改动windows的C:/Windows/system32/drivers/etc/文件夹下的hosts文件

二、多节点的搭建

1.hadoop集群搭建

      1.1 hadoop集群式多台机器物理分布的,每一台物理机器都是承担不同的角色(NameNode\DataNode\SecondarynaemNode\JobTracker\TaskTracker)。

搭建三个节点的hadoop集群:hadoop0(NameNode、JobTracker、SecondarynaemNode),hadoop1和hadoop2(DataNode、TaskTracker)。

      1.2 集群的各个节点通常都是物理机器。可是也能够包括虚拟机。

      1.3 在VMWare中复制出两个节点。删除这两个节点中的.ssh配置信息和/usr/local/文件夹下的全部内容

      1.4 设置这两个新节点的ip(各自是192.168.80.101和192.168.80.102)和hostname(hadoop1和hadoop2)。

      1.5 把全部的ip和hostname的映射信息配置在每个节点的/etc/hosts中。

      1.6 集群的各个节点之间SSH免password登陆

       (1)在两个新节点中产生ssh秘钥文件

(2)ssh-copy-id -i hadoop0

      1.7 把hadoop0上原来的/usr/local/hadoop/logs和/usr/local/hadoop/tmp文件夹删除

      1.8 把hadoop0上的jdk文件夹和hadoop文件夹拷贝到其它节点

        scp -r /usr/local/jdk  hadoop1:/usr/local

scp -r /usr/local/hadoop  hadoop1:/usr/local

     1.9 在hadoop0节点上配置主从关系。改动$HADOOP_HOME/conf/slaves文件。删除原有内容,改动为hadoop1和hadoop2.

    1.10 在hadoop0上格式化文件系统  hadoop namenode -format

    1.11 在hadoop0上运行命令  start-all.sh





    2.动态添加hadoop的从节点

   2.1 如果hadoop0是将要被新增的从节点

   2.2 改动主节点hadoop0的slaves文件。添加hadoop0

   2.3 在从节点hadoop0上手工启动DataNode和TaskTracker进程

      hadoop-daemon.sh start datanode|tasktracker

   2.4 让主节点载入新的从节点信息

     hadoop dfsadmin -refreshNodes





    3.动态改动副本数

      hadoop fs -setrep 2  /core-site.xml

hadoop1.1.0的伪分布搭建步骤的更多相关文章

  1. Hadoop伪分布式搭建步骤

    说明: 搭建环境是VMware10下用的是Linux CENTOS 32位,Hadoop:hadoop-2.4.1  JAVA :jdk7 32位:本文是本人在网络上收集的HADOOP系列视频所附带的 ...

  2. hadoop学习;hadoop伪分布搭建

    先前已经做了准备工作安装jdk什么的,以下開始ssh免password登陆.这里我们用的是PieTTY工具,当然你也能够直接在linux下直接操作 ssh(secure shell),运行命令 ssh ...

  3. [b0006] Spark 2.0.1 伪分布式搭建练手

    环境: 已经安装好: hadoop 2.6.4  yarn 参考: [b0001] 伪分布式 hadoop 2.6.4 准备: spark-2.0.1-bin-hadoop2.6.tgz 下载地址:  ...

  4. Hadoop-1.0.4伪分布安装与配置

    1.采用伪分布模式安装      将hadoop-****.tar.gz复制到linux的/usr/local目录下. 2.解压,重命名      #tar -xzvf hadoop-1.0.4.ta ...

  5. Hadoop伪分布搭建

    一.伪分布式的搭建 1.准备Linux环境 1.0点击VMware快捷方式,右键打开文件所在位置 -> 双击vmnetcfg.exe -> VMnet1 host-only ->修改 ...

  6. Hadoop2.0 HA集群搭建步骤

    上一次搭建的Hadoop是一个伪分布式的,这次我们做一个用于个人的Hadoop集群(希望对大家搭建集群有所帮助): 集群节点分配: Park01 Zookeeper NameNode (active) ...

  7. 在centos7上进行hadoop-3.1.2的伪分布搭建

    第一步:配置网络(静态IP) vi /etc/sysconfig/network-scripts/ifcfg-ens33(网卡名称可能不同) 1. 修改: 将该配置文件中的ONBOOT=no修改为ye ...

  8. 2015.07.12hadoop伪分布安装

    hadoop伪分布安装   Hadoop2的伪分布安装步骤[使用root用户用户登陆]other进去超级用户拥有最高的权限 1.1(桥接模式)设置静态IP ,,修改配置文件,虚拟机IP192.168. ...

  9. Hadoop 安装(本地、伪分布、分布式模式)

    本地模式 环境介绍 一共三台测试机 master   192.168.4.91 slave1   192.168.4.45 slave2   192.168.4.96 操作系统配置 1.Centos7 ...

随机推荐

  1. 鸟哥的linux私房菜

    http://vbird.dic.ksu.edu.tw/linux_basic/linux_basic.php

  2. vue如何根据返回的值对元素进行样式渲染

    1.最终显示样式: 需要:根据任务状态值,显示不同颜色的原点表示任务状态,以及对优先级的数据,进行☆标记 2.代码实现: 在<el-table-column>中需要显示的内容前面,添加图标 ...

  3. STM32 的 printf() 函数串口重定向(HAL库标准库都适用)

    1.建立工程 2.核心:添加新文件usar_fputc.c (名字随便自己命名),把文件添加到项目中去 #include "stdio.h" #include "stm3 ...

  4. JS中常用开发知识点

     JS中常用开发知识点 1.获取指定范围内的随机数 2.随机获取数组中的元素 3.生成从0到指定值的数字数组 等同于: 4.打乱数字数组的顺序 5.对象转换为数组 //注意对象必须是以下格式的才可以通 ...

  5. angular-数据库

    <div ng-app="myApp" ng-controller="customersCtrl"> <table> <tr ng ...

  6. Collection、List、Set、Map之间的关系

    初学java,单个的接触有点迷糊,所以总结下他们的关系 一.关系 Collection --List:以特定顺序存储 --ArrayList.LinkList.Vector --Set:不能包含重复的 ...

  7. Android 混淆后的代码调试

    ProGuard的输出文件及用处 混淆之后,会给我们输出一些文件,在gradle方式下是在<project_dir>/build/proguard/目录下,ant是在<project ...

  8. POJ 2906 数学期望

    开始时直接设了一个状态,dp[i][j]为发现i种bug,j个系统有bug的期望天数.但很错误,没能转移下去.... 看了题解,设状态dp[i][j]为已发现i种bug,j个系统有bug,到完成目标状 ...

  9. [SCSS] Pure CSS for multiline truncation with ellipsis

    1. Pure CSS 2. Responsive 3. No need to recalculate on resize or font’s load event 4. Cross browser

  10. bzoj4547: Hdu5171 小奇的集合(矩阵乘法)

    4547: Hdu5171 小奇的集合 题目:传送门 题解: 做一波大佬们的坑...ORZ 不得不说,我觉得矩阵很简单啊,就一个3*3的(直接看代码吧) 给个递推柿纸:f[i]=f[i-1]+max1 ...