1)ssh配置

http://allthingshadoop.com/2010/04/20/hadoop-cluster-setup-ssh-key-authentication/

2) 修改打开文件数限制  - 主从配置一致

/etc/security/limits.conf中增加如下配置提高打开文件限制数

hadoop soft nofile 10240

hadoop hard nofile 65536



3)配置core-site.xml  - 主从配置一致(配置文件在hadoop/conf目录,下同)

<?xml version="1.0"?>

<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<!-- Put site-specific property overrides in this file. -->

<configuration>

    <property>

        <name>fs.default.name</name>

        <value>hdfs://server:6060/</value>

        <description>who is the namenode</description>

    </property>

</configuration>

4)配置hdfs-site.xml  - 主从配置一致

<?xml version="1.0"?>

<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<!-- Put site-specific property overrides in this file. -->

<configuration>

    <property>

        <name>dfs.replication</name>

        <value>1</value>

        <final>true</final>

        <description>default 3 in production environment</description>

    </property>

    <property>

        <name>dfs.data.dir</name>

        <value>/home/hadoop/hdfs/data</value>

        <description>where data file is saved</description>

    </property>

    <property>

        <name>dfs.name.dir</name>

        <value>/home/hadoop/hdfs/name</value>

        <description>where data meta file is saved (on namenode) </description>

    </property>

    <property>

        <name>hadoop.tmp.dir</name>

        <value>/home/hadoop/hdfs/tmp</value>

        <description>A base for other temporary directories.</description>

    </property>

</configuration>



目录权限

A)data目录权限

chmod 755 /home/hadoop/hdfs/data

B)namenode的数据目录不需要创建,hadoop namenode -format将自动创建

rm -rf /home/hadoop/hdfs/name



C)如果发现datanode也启动不了了

rm -rf /home/hadoop/hdfs/data



D)namenode几点显示只有一个datanode - 本机

从节点日志显示中显示

2013-11-04 15:37:29,138 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: server/192.168.16.133:6060. Already tried 0 time(s).

从节点无法连接到namenode,

修改方式:

在namenode上,hostname对应地址为127.0.0.1,需要修改/etc/hosts中的127.0.0.1(注释掉)

E) 如果主从仍旧无法连接,关闭防火墙



5)修改masters - 主从配置一致

server



6)修改slaves - 主动配置一致

server

slave1

slave2

7)mapred-site.xml配置  - 主动配置一致

<?xml version="1.0"?>

<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<!-- Put site-specific property overrides in this file. -->

<configuration>

    <property>

        <name>mapred.job.tracker</name>

        <value>server:8021</value>

        <final>true</final>

    </property>

    <property>

        <name>mapred.local.dir</name>

        <value>/home/hadoop/mapred/local</value>

        <final>true</final>

    </property>

    <property>

        <name>mapred.system.dir</name>

        <value>/home/hadoop/mapred/system</value>

        <final>true</final>

    </property>

    <property>

        <name>mapred.tasktracker.map.tasks.maximum</name>

        <value>7</value>

        <final>true</final>

    </property>

    <property>

        <name>mapred.tasktracker.reduce.tasks.maximum</name>

        <value>7</value>

        <final>true</final>

    </property>

    <property>

        <name>mapred.child.java.opts</name>

        <value>-Xmx400m</value>

    </property>

</configuration>

8)hadoop-evn.sh中配置

export JAVA_HOME=/path/to/jdk

9)初始化、启动

$ bin/hadoop namenode -format
$ bin/hadoop start-all.sh

$ hadoop dfsadmin -report

Warning: $HADOOP_HOME is deprecated.



Configured Capacity: 288730824704 (268.9 GB)

Present Capacity: 188958699520 (175.98 GB)

DFS Remaining: 188958601216 (175.98 GB)

DFS Used: 98304 (96 KB)

DFS Used%: 0%

Under replicated blocks: 0

Blocks with corrupt replicas: 0

Missing blocks: 0



-------------------------------------------------

Datanodes available: 3 (3 total, 0 dead)



Name: 192.168.16.133:50010

Decommission Status : Normal

Configured Capacity: 119873626112 (111.64 GB)

DFS Used: 40960 (40 KB)

Non DFS Used: 7385841664 (6.88 GB)

DFS Remaining: 112487743488(104.76 GB)

DFS Used%: 0%

DFS Remaining%: 93.84%

Last contact: Mon Nov 04 16:03:57 CST 2013





Name: 192.168.16.113:50010

Decommission Status : Normal

Configured Capacity: 97833930752 (91.11 GB)

DFS Used: 28672 (28 KB)

Non DFS Used: 86688358400 (80.73 GB)

DFS Remaining: 11145543680(10.38 GB)

DFS Used%: 0%

DFS Remaining%: 11.39%

Last contact: Mon Nov 04 16:03:55 CST 2013





Name: 192.168.16.156:50010

Decommission Status : Normal

Configured Capacity: 71023267840 (66.15 GB)

DFS Used: 28672 (28 KB)

Non DFS Used: 5697925120 (5.31 GB)

DFS Remaining: 65325314048(60.84 GB)

DFS Used%: 0%

DFS Remaining%: 91.98%

Last contact: Mon Nov 04 16:03:56 CST 2013

Hadoop版本1.0.3

hadoop集群配置实例的更多相关文章

  1. Hadoop集群配置(最全面总结)

    Hadoop集群配置(最全面总结) 通常,集群里的一台机器被指定为 NameNode,另一台不同的机器被指定为JobTracker.这些机器是masters.余下的机器即作为DataNode也作为Ta ...

  2. 大数据测试之hadoop集群配置和测试

    大数据测试之hadoop集群配置和测试   一.准备(所有节点都需要做):系统:Ubuntu12.04java版本:JDK1.7SSH(ubuntu自带)三台在同一ip段的机器,设置为静态IP机器分配 ...

  3. Hadoop集群配置(最全面总结 )(转)

    Hadoop集群配置(最全面总结) huangguisu 通常,集群里的一台机器被指定为 NameNode,另一台不同的机器被指定为JobTracker.这些机器是masters.余下的机器即作为Da ...

  4. Hadoop 集群配置记录小结

    Hadoop集群配置往往按照网上教程就可以"配置成功",但是你自己在操作的时候会有很多奇奇怪怪的问题出现, 我在这里整理了一下常见的问题与处理方法: 1.配置/etc/hosts ...

  5. hadoop集群配置和在windows系统上运用java操作hdfs

    安装 配置 概念 hadoop常用shell命令 使用java操作hadoop 本文介绍hadoop集群配置和在windows系统上运用java操作hdfs 安装 http://mirror.bit. ...

  6. hadoop集群配置方法---mapreduce应用:xml解析+wordcount详解---yarn配置项解析

    注:以下链接均为近期hadoop集群搭建及mapreduce应用开发查找到的资料.使用hadoop2.6.0,其中hadoop集群配置过程下面的文章都有部分参考. hadoop集群配置方法: ---- ...

  7. Hadoop集群配置搭建

    环境:Centos 6.9,Hadoop 2.7.1,JDK 1.8.0_161,Maven 3.3.9 前言: 1.配置一台master服务器,两台或多台slave服务器.    2.master可 ...

  8. Hadoop集群配置过程中需要注意的问题

    环境:VMwareWorkstation8.0 和 Ubuntu14.04 1. 使用三台虚拟机搭建Hadoop集群 2. 一定要在每台机器上配置ssh免密码登录 3. 由于需要给/etc/hosts ...

  9. HADOOP集群配置

    http://wenku.baidu.com/view/92cbe435eefdc8d376ee32eb.html http://www.infoq.com/cn/articles/hadoop-co ...

随机推荐

  1. mysql delimiter

    默认情况下,mysql遇到分号; 就认为是一个命令的终止符, 就会执行命令.而有些时候,我们不希望这样,比如存储过程中包含多个语句,这些语句以分号分割,我们希望这些语句作为一个命令,一起执行,怎么解决 ...

  2. Win7_64位使用Mysql Odbc

    1.首先不能安装Mysql Odbc 64位,因为我们的Mysql是32位,使用Mysql Odbc 64位连接Mysql 32位,报错:驱动程序与应用程序之间的体系结构不匹配. 2.要安装Mysql ...

  3. Hadoop与Spark比较

    先看这篇文章:http://www.huochai.mobi/p/d/3967708/?share_tid=86bc0ba46c64&fmid=0 直接比较Hadoop和Spark有难度,因为 ...

  4. swift语言学习之UITableView分割线左边到头的解决

    此方法兼容ios 7.8.9  // 在tableView创建地方设置 if tableView!.respondsToSelector("setSeparatorInset:") ...

  5. BigDecimal类型比较大小

    这个类是java里精确计算的类 1 比较对象是否相等     一般的对象用equals,但是BigDecimal比较特殊,举个例子:     BigDecimal a=BigDecimal.value ...

  6. 高质量JavaScript代码书写基本要点

    翻译-高质量JavaScript代码书写基本要点 by zhangxinxu from http://www.zhangxinxu.com本文地址:http://www.zhangxinxu.com/ ...

  7. 强制关闭tomcat

    ps -ef |grep tomcat //找到tomcat的端口号 kill - tomcatpid

  8. HTML5结合百度地图API创建地图应用

    具体的百度地图API的使用方法查看百度地图API里的DEMO <style> #div1{ width:400px; height:400px; border:1px #000 solid ...

  9. 任务调度JOB

    1.1       描述 定时执行数据库中的PL/SQL块,如存储过程.可以减化前端编程. 1.2       简单示例 本示例运行环境:oracle10g + pl/sql +xp. 使用存储过程每 ...

  10. as3中的多线程

    从fp11.4开始支持worker技术, 即as3中的线程概念, 到了fp11.5, flascc中开始支持pthread家族来创建线程. 总的来说, as3中有两种创建线程的方法: 1.直接在as3 ...