hadoop集群配置实例
1)ssh配置
http://allthingshadoop.com/2010/04/20/hadoop-cluster-setup-ssh-key-authentication/
2) 修改打开文件数限制 - 主从配置一致
/etc/security/limits.conf中增加如下配置提高打开文件限制数
hadoop soft nofile 10240
hadoop hard nofile 65536
3)配置core-site.xml - 主从配置一致(配置文件在hadoop/conf目录,下同)
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://server:6060/</value>
<description>who is the namenode</description>
</property>
</configuration>
4)配置hdfs-site.xml - 主从配置一致
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
<final>true</final>
<description>default 3 in production environment</description>
</property>
<property>
<name>dfs.data.dir</name>
<value>/home/hadoop/hdfs/data</value>
<description>where data file is saved</description>
</property>
<property>
<name>dfs.name.dir</name>
<value>/home/hadoop/hdfs/name</value>
<description>where data meta file is saved (on namenode) </description>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/hdfs/tmp</value>
<description>A base for other temporary directories.</description>
</property>
</configuration>
目录权限
A)data目录权限
chmod 755 /home/hadoop/hdfs/data
B)namenode的数据目录不需要创建,hadoop namenode -format将自动创建
rm -rf /home/hadoop/hdfs/name
C)如果发现datanode也启动不了了
rm -rf /home/hadoop/hdfs/data
D)namenode几点显示只有一个datanode - 本机
从节点日志显示中显示
2013-11-04 15:37:29,138 INFO org.apache.hadoop.ipc.Client: Retrying connect to server: server/192.168.16.133:6060. Already tried 0 time(s).
从节点无法连接到namenode,
修改方式:
在namenode上,hostname对应地址为127.0.0.1,需要修改/etc/hosts中的127.0.0.1(注释掉)
E) 如果主从仍旧无法连接,关闭防火墙
5)修改masters - 主从配置一致
server
6)修改slaves - 主动配置一致
server
slave1
slave2
7)mapred-site.xml配置 - 主动配置一致
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>server:8021</value>
<final>true</final>
</property>
<property>
<name>mapred.local.dir</name>
<value>/home/hadoop/mapred/local</value>
<final>true</final>
</property>
<property>
<name>mapred.system.dir</name>
<value>/home/hadoop/mapred/system</value>
<final>true</final>
</property>
<property>
<name>mapred.tasktracker.map.tasks.maximum</name>
<value>7</value>
<final>true</final>
</property>
<property>
<name>mapred.tasktracker.reduce.tasks.maximum</name>
<value>7</value>
<final>true</final>
</property>
<property>
<name>mapred.child.java.opts</name>
<value>-Xmx400m</value>
</property>
</configuration>
8)hadoop-evn.sh中配置
export JAVA_HOME=/path/to/jdk
9)初始化、启动
$ bin/hadoop namenode -format
$ bin/hadoop start-all.sh
$ hadoop dfsadmin -report
Warning: $HADOOP_HOME is deprecated.
Configured Capacity: 288730824704 (268.9 GB)
Present Capacity: 188958699520 (175.98 GB)
DFS Remaining: 188958601216 (175.98 GB)
DFS Used: 98304 (96 KB)
DFS Used%: 0%
Under replicated blocks: 0
Blocks with corrupt replicas: 0
Missing blocks: 0
-------------------------------------------------
Datanodes available: 3 (3 total, 0 dead)
Name: 192.168.16.133:50010
Decommission Status : Normal
Configured Capacity: 119873626112 (111.64 GB)
DFS Used: 40960 (40 KB)
Non DFS Used: 7385841664 (6.88 GB)
DFS Remaining: 112487743488(104.76 GB)
DFS Used%: 0%
DFS Remaining%: 93.84%
Last contact: Mon Nov 04 16:03:57 CST 2013
Name: 192.168.16.113:50010
Decommission Status : Normal
Configured Capacity: 97833930752 (91.11 GB)
DFS Used: 28672 (28 KB)
Non DFS Used: 86688358400 (80.73 GB)
DFS Remaining: 11145543680(10.38 GB)
DFS Used%: 0%
DFS Remaining%: 11.39%
Last contact: Mon Nov 04 16:03:55 CST 2013
Name: 192.168.16.156:50010
Decommission Status : Normal
Configured Capacity: 71023267840 (66.15 GB)
DFS Used: 28672 (28 KB)
Non DFS Used: 5697925120 (5.31 GB)
DFS Remaining: 65325314048(60.84 GB)
DFS Used%: 0%
DFS Remaining%: 91.98%
Last contact: Mon Nov 04 16:03:56 CST 2013
Hadoop版本1.0.3
hadoop集群配置实例的更多相关文章
- Hadoop集群配置(最全面总结)
Hadoop集群配置(最全面总结) 通常,集群里的一台机器被指定为 NameNode,另一台不同的机器被指定为JobTracker.这些机器是masters.余下的机器即作为DataNode也作为Ta ...
- 大数据测试之hadoop集群配置和测试
大数据测试之hadoop集群配置和测试 一.准备(所有节点都需要做):系统:Ubuntu12.04java版本:JDK1.7SSH(ubuntu自带)三台在同一ip段的机器,设置为静态IP机器分配 ...
- Hadoop集群配置(最全面总结 )(转)
Hadoop集群配置(最全面总结) huangguisu 通常,集群里的一台机器被指定为 NameNode,另一台不同的机器被指定为JobTracker.这些机器是masters.余下的机器即作为Da ...
- Hadoop 集群配置记录小结
Hadoop集群配置往往按照网上教程就可以"配置成功",但是你自己在操作的时候会有很多奇奇怪怪的问题出现, 我在这里整理了一下常见的问题与处理方法: 1.配置/etc/hosts ...
- hadoop集群配置和在windows系统上运用java操作hdfs
安装 配置 概念 hadoop常用shell命令 使用java操作hadoop 本文介绍hadoop集群配置和在windows系统上运用java操作hdfs 安装 http://mirror.bit. ...
- hadoop集群配置方法---mapreduce应用:xml解析+wordcount详解---yarn配置项解析
注:以下链接均为近期hadoop集群搭建及mapreduce应用开发查找到的资料.使用hadoop2.6.0,其中hadoop集群配置过程下面的文章都有部分参考. hadoop集群配置方法: ---- ...
- Hadoop集群配置搭建
环境:Centos 6.9,Hadoop 2.7.1,JDK 1.8.0_161,Maven 3.3.9 前言: 1.配置一台master服务器,两台或多台slave服务器. 2.master可 ...
- Hadoop集群配置过程中需要注意的问题
环境:VMwareWorkstation8.0 和 Ubuntu14.04 1. 使用三台虚拟机搭建Hadoop集群 2. 一定要在每台机器上配置ssh免密码登录 3. 由于需要给/etc/hosts ...
- HADOOP集群配置
http://wenku.baidu.com/view/92cbe435eefdc8d376ee32eb.html http://www.infoq.com/cn/articles/hadoop-co ...
随机推荐
- Google账户_GooglePlay_关联
PS:这过程叫一个折腾...穷逼的无奈啊... 1. 1.1. 网上搜到说,安装 google play & google框架服务,手机需要root,没去证实这个事情... 用了之前的 And ...
- Python学习(4)运算符
目录 Python 算术运算符 Python 比较运算符 Python 赋值运算符 Python 位运算符 Python 逻辑运算符 Python 成员运算符 Python 身份运算符 Python ...
- jquery 获取鼠标位置
//获取鼠标位置 $(function(){ $('body').mousemove(function(e) { e = e || window.event; __xx = e.pageX || e. ...
- Android控件_使用TextView实现跑马灯效果
一.第一种方式: 通过TextView控件的自身属性实现(但是有缺点就是当多个TextView要实现这种效果的时候,只有第一个才有效果) 实现方法加上下面四个属性: android:singleLi ...
- Python中的Class的讨论
尽管Python在Function Programming中有着其他语言难以企及的的优势,但是我们也不要忘了Python也是一门OO语言哦.因此我们关注Python在FP上的优势的同时,还得了解一下P ...
- iOS开发 判断用户是否开启了定位
- (BOOL)achiveUserLocationStart { CLAuthorizationStatus status = [CLLocationManager authorizationSta ...
- 删除内容并不能删除field structure -- features_revert
把内容删了但field structure还在, 在manage_field界面,field还在.http://drupal.stackexchange.com/questions/21501/rev ...
- OpenCV3编程入门笔记(4)腐蚀、膨胀、开闭运算、漫水填充、金字塔、阈值化、霍夫变换
腐蚀erode.膨胀dilate 腐蚀和膨胀是针对图像中的白色部分(高亮部分)而言的,不是黑色的.除了输入输出图像外,还需传入模板算子element,opencv中有三种可以选择:矩形MORPH_RE ...
- ajax的详细学习
地址:http://www.cnblogs.com/Garden-blog/archive/2011/03/11/1981778.html
- c语言数据结构:递归的替代-------回溯算法
1.要理解回溯就必须清楚递归的定义和过程. 递归算法的非递归形式可采用回溯算法.主要考虑的问题在于: 怎样算完整的一轮操作. 执行的操作过程中怎样保存当前的状态以确保以后回溯访问. 怎样返回至上一次未 ...