Hadoop群集设置

近期特别看了Hadoop的资料。感觉特别好,整理一下发在自己的博客上,希望对想了解集群的网友有所帮助。

參考资料:http://hadoop.apache.org/docs/r1.0.4/cn/cluster_setup.html

目的

本文描写叙述了怎样安装、配置和管理有实际意义的Hadoop集群,其规模可从几个节点的小集群到几千个节点的超大集群。

假设你希望在单机上安装Hadoop玩玩,从这里能找到相关细节。

先决条件

  1. 确保在你集群中的每一个节点上都安装了全部必需软件。
  2. 获取Hadoop软件包。

安装

安装Hadoop集群通常要将安装软件解压到集群内的全部机器上。

通常,集群里的一台机器被指定为 NameNode,还有一台不同的机器被指定为JobTracker。这些机器是masters。余下的机器即作为DataNode作为TaskTracker。这些机器是slaves

我们用HADOOP_HOME指代安装的根路径。通常。集群里的全部机器的HADOOP_HOME路径同样。

配置

接下来的几节描写叙述了怎样配置Hadoop集群。

配置文件

对Hadoop的配置通过conf/文件夹下的两个重要配置文件完毕:

  1. hadoop-default.xml - 仅仅读的默认配置。
  2. hadoop-site.xml - 集群特有的配置。

要了解很多其它关于这些配置文件怎样影响Hadoop框架的细节,请看这里

此外,通过设置conf/hadoop-env.sh中的变量为集群特有的值。你能够对bin/文件夹下的Hadoop脚本进行控制。

集群配置

要配置Hadoop集群,你须要设置Hadoop守护进程的执行环境和Hadoop守护进程的执行參数

Hadoop守护进程指NameNode/DataNode 和JobTracker/TaskTracker。

配置Hadoop守护进程的执行环境

管理员可在conf/hadoop-env.sh脚本内对Hadoop守护进程的执行环境做特别指定。

至少,你得设定JAVA_HOME使之在每一远端节点上都被正确设置。

管理员能够通过配置选项HADOOP_*_OPTS来分别配置各个守护进程。 下表是能够配置的选项。

守护进程 配置选项
NameNode HADOOP_NAMENODE_OPTS
DataNode HADOOP_DATANODE_OPTS
SecondaryNamenode HADOOP_SECONDARYNAMENODE_OPTS
JobTracker HADOOP_JOBTRACKER_OPTS
TaskTracker HADOOP_TASKTRACKER_OPTS

比如。配置Namenode时,为了使其可以并行回收垃圾(parallelGC)。 要把以下的代码增加到hadoop-env.sh :

export HADOOP_NAMENODE_OPTS="-XX:+UseParallelGC ${HADOOP_NAMENODE_OPTS}"

其他可定制的经常使用參数还包含:

  • HADOOP_LOG_DIR - 守护进程日志文件的存放文件夹。假设不存在会被自己主动创建。
  • HADOOP_HEAPSIZE - 最大可用的堆大小,单位为MB。

    比方,1000MB。 这个參数用于设置hadoop守护进程的堆大小。缺省大小是1000MB。

配置Hadoop守护进程的执行參数

这部分涉及Hadoop集群的重要參数,这些參数在conf/hadoop-site.xml中指定。

參数 取值 备注
fs.default.name NameNode的URI。

hdfs://主机名/
mapred.job.tracker JobTracker的主机(或者IP)和port。 主机:port
dfs.name.dir NameNode持久存储名字空间及事务日志的本地文件系统路径。

当这个值是一个逗号切割的文件夹列表时,nametable数据将会被拷贝到全部文件夹中做冗余备份。

dfs.data.dir DataNode存放块数据的本地文件系统路径,逗号切割的列表。 当这个值是逗号切割的文件夹列表时,数据将被存储在全部文件夹下,通常分布在不同设备上。
mapred.system.dir Map/Reduce框架存储系统文件的HDFS路径。比方/hadoop/mapred/system/。

这个路径是默认文件系统(HDFS)下的路径, 须从server和client上均可訪问。

mapred.local.dir 本地文件系统下逗号切割的路径列表。Map/Reduce暂时数据存放的地方。 多路径有助于利用磁盘i/o。
mapred.tasktracker.{map|reduce}.tasks.maximum 某一TaskTracker上可执行的最大Map/Reduce任务数。这些任务将同一时候各自执行。 默觉得2(2个map和2个reduce),可根据硬件情况更改。
dfs.hosts/dfs.hosts.exclude 许可/拒绝DataNode列表。 如有必要,用这个文件控制许可的datanode列表。
mapred.hosts/mapred.hosts.exclude 许可/拒绝TaskTracker列表。 如有必要,用这个文件控制许可的TaskTracker列表。

通常。上述參数被标记为 final 以确保它们不被用户应用更改。

现实世界的集群配置

这节罗列在大规模集群上执行sort基准測试(benchmark)时使用到的一些非缺省配置。

  • 执行sort900的一些非缺省配置值,sort900即在900个节点的集群上对9TB的数据进行排序:

    參数 取值 备注
    dfs.block.size 134217728 针对大文件系统。HDFS的块大小取128MB。

    dfs.namenode.handler.count 40 启动很多其它的NameNode服务线程去处理来自大量DataNode的RPC请求。
    mapred.reduce.parallel.copies 20 reduce启动很多其它的并行拷贝器以获取大量map的输出。
    mapred.child.java.opts -Xmx512M 为map/reduce子虚拟机使用更大的堆。
    fs.inmemory.size.mb 200 为reduce阶段合并map输出所需的内存文件系统分配很多其它的内存。

    io.sort.factor 100 文件排序时很多其它的流将同一时候被归并。
    io.sort.mb 200 提高排序时的内存上限。
    io.file.buffer.size 131072 SequenceFile中用到的读/写缓存大小。
  • 执行sort1400和sort2000时须要更新的配置,即在1400个节点上对14TB的数据进行排序和在2000个节点上对20TB的数据进行排序:

    參数 取值 备注
    mapred.job.tracker.handler.count 60 启用很多其它的JobTracker服务线程去处理来自大量TaskTracker的RPC请求。
    mapred.reduce.parallel.copies 50  
    tasktracker.http.threads 50 为TaskTracker的Http服务启用很多其它的工作线程。reduce通过Http服务获取map的中间输出。

    mapred.child.java.opts -Xmx1024M 使用更大的堆用于maps/reduces的子虚拟机

Slaves

通常。你选择集群中的一台机器作为NameNode,另外一台不同的机器作为JobTracker。余下的机器即作为DataNode又作为TaskTracker。这些被称之为slaves

在conf/slaves文件里列出全部slave的主机名或者IP地址,一行一个。

日志

Hadoop使用Apache log4j来记录日志,它由Apache Commons Logging框架来实现。编辑conf/log4j.properties文件能够改变Hadoop守护进程的日志配置(日志格式等)。

历史日志

作业的历史文件集中存放在hadoop.job.history.location。这个也能够是在分布式文件系统下的路径。其默认值为${HADOOP_LOG_DIR}/history。jobtracker的web UI上有历史日志的web UI链接。

历史文件在用户指定的文件夹hadoop.job.history.user.location也会记录一份,这个配置的缺省值为作业的输出文件夹。这些文件被存放在指定路径下的“_logs/history/”文件夹中。

因此,默认情况下日志文件会在“mapred.output.dir/_logs/history/”下。假设将hadoop.job.history.user.location指定为值none,系统将不再记录此日志。

用户可使用下面命令在指定路径下查看历史日志汇总

$ bin/hadoop job -history output-dir

这条命令会显示作业的细节信息,失败和终止的任务细节。

关于作业的很多其它细节。比方成功的任务,以及对每一个任务的所做的尝试次数等能够用以下的命令查看

$ bin/hadoop job -history all output-dir

一但所有必要的配置完毕,将这些文件分发到所有机器的HADOOP_CONF_DIR路径下。一般是${HADOOP_HOME}/conf。

Hadoop的机架感知

HDFS和Map/Reduce的组件是可以感知机架的。

NameNode和JobTracker通过调用管理员配置模块中的APIresolve来获取集群里每一个slave的机架id。该API将slave的DNS名称(或者IP地址)转换成机架id。

使用哪个模块是通过配置项topology.node.switch.mapping.impl来指定的。模块的默认实现会调用topology.script.file.name配置项指定的一个的脚本/命令。
假设topology.script.file.name未被设置,对于全部传入的IP地址,模块会返回/default-rack作为机架id。在Map/Reduce部分另一个额外的配置项mapred.cache.task.levels。该參数决定cache的级数(在网络拓扑中)。比如,假设默认值是2,会建立两级的cache- 一级针对主机(主机 -> 任务的映射)另一级针对机架(机架 ->
任务的映射)。

启动Hadoop

启动Hadoop集群须要启动HDFS集群和Map/Reduce集群。

格式化一个新的分布式文件系统:

$ bin/hadoop namenode -format

在分配的NameNode上,执行以下的命令启动HDFS:

$ bin/start-dfs.sh

bin/start-dfs.sh脚本会參照NameNode上${HADOOP_CONF_DIR}/slaves文件的内容,在全部列出的slave上启动DataNode守护进程。

在分配的JobTracker上,执行以下的命令启动Map/Reduce:

$ bin/start-mapred.sh

bin/start-mapred.sh脚本会參照JobTracker上${HADOOP_CONF_DIR}/slaves文件的内容,在全部列出的slave上启动TaskTracker守护进程。

停止Hadoop

在分配的NameNode上,运行以下的命令停止HDFS:

$ bin/stop-dfs.sh

bin/stop-dfs.sh脚本会參照NameNode上${HADOOP_CONF_DIR}/slaves文件的内容,在全部列出的slave上停止DataNode守护进程。

在分配的JobTracker上。执行以下的命令停止Map/Reduce:

$ bin/stop-mapred.sh

bin/stop-mapred.sh脚本会參照JobTracker上${HADOOP_CONF_DIR}/slaves文件的内容,在全部列出的slave上停止TaskTracker守护进程。

版权声明:本文博主原创文章,博客,未经同意,不得转载。

Hadoop群集设置的更多相关文章

  1. 在Ubuntu上搭建Hadoop群集

    前面我搭建的Hadoop都是单机伪分布式的,并不能真正感受到Hadoop的最大特点,分布式存储和分布式计算.所以我打算在虚拟机中同时开启3台机器,实现分布式的Hadoop群集. 1.准备3台Ubunt ...

  2. Cloudera 建议使用 NTP 使 Hadoop 群集实现时间同步

    主机的 NTP 服务未响应时钟偏差请求. 建议 这是主机运行状况测试,用于检查主机的系统时钟是否与其 NTP 服务器不同步.该测试能检查“ntpdc -c loopinfo”命令报告的主机时钟偏差绝对 ...

  3. hadoop群集安装中碰到的问题

    在hadoop群集安装结束后,进行格式测试出现问题如下 格式化 cd /data/hadoop/bin ./hdfs namenode -format 15/01/21 05:21:17 WARN f ...

  4. [原创]Hadoop默认设置导致NameNode启动失败一例

    看到市面上很多书在讲解Hadoop的时候都轻描淡写的提到了HDFS的设置问题.大多采取的是默认设置,最多也就是设置一些副本数量之类. 笔者在工作中遇到了这样一种情况:每次重启系统之后,NameNode ...

  5. Hadoop webHDFS设置和使用说明

    1.配置 namenode的hdfs-site.xml是必须将dfs.webhdfs.enabled属性设置为true,否则就不能使用webhdfs的LISTSTATUS.LISTFILESTATUS ...

  6. hadoop hdfs设置quota

    quota分为两种: 1. 目录下的文件数限制 2. 目录下的空间大小 //设置文件数 hdfs dfsadmin -setQuota 1000000 /user/jenkin //设置空间大小 hd ...

  7. 使用kube_ping进行Keycloak群集设置 - DZone Cloud

    转自:https://www.jdon.com/51501 看看如何使用kube_ping和Keycloak实现自动发现? Keycloak是一个开源软件,提供身份管理和访问管理的单点登录.Keyco ...

  8. hadoop群集 启动

    ###注意:严格按照下面的步骤 .5启动zookeeper集群(分别在itcast04.itcast05.itcast06上启动zk) cd /itcast/zookeeper-/bin/ ./zkS ...

  9. 2.7、CDH 搭建Hadoop在安装(使用向导设置群集)

    步骤7:使用向导设置群集 完成“ 群集安装”向导后,“ 群集设置”向导将自动启动.以下部分将指导您完成向导的每个页面: 选择服务 分配角色 设置数据库 查看更改 首次运行命令 恭喜! 选择服务 “ 选 ...

随机推荐

  1. myEclipse项目部署按钮失效了,怎么办?

    myEclipse项目部署按钮失效了,按了以后没反应,怎么办? 步骤如下: 1.首先关闭MyEclipse. 2.然后删除Workspaces目录(存放您MyEclipse项目的地方)下的 " ...

  2. 配置Tomcat出现Unsupported major.minor version 51.0

    在配置tomcat时,配置好jdk1.6,下载的tomcat8.0,结果执行start-up.bat,总是一闪而过,网上查了大量的资料,都说是可能是jdk没配置好,但实际上jdk的环境变量设置正常,后 ...

  3. shuffle一个简单的过程叙述性说明

    shuffle它是在map和reduce过程之间.我们看看在这个过程中的步骤,了解在这个问题上不深,有可能是一个错误.忘记修正 1. map map出口key,value,里的context.writ ...

  4. 2015西雅图微软总部MVP峰会

    2015 西雅图微软总部MVP峰会记录   2015 西雅图微软总部MVP峰会记录 今年决定参加微软MVP全球峰会,在出发之前本人就已经写这篇博客,希望将本次会议原汁原味奉献给大家 因为这次是本人第一 ...

  5. iOS kvc

    kvc在我的脑海里用来更改属性的实例变量值. 今天,他们遇到了kvc第二次去学习它,在网上看了很多博客,这似乎不符合我的口味,为了提取一些以下的.总结自己的. http://www.cnblogs.c ...

  6. HttpWebRequest BeginGetResponse EndGetResponse

    private void Button_Click_4(object sender, RoutedEventArgs e) { HttpWebRequest request = HttpWebRequ ...

  7. 分布式中使用Redis实现Session共享(转)

    上一篇介绍了如何使用nginx+iis部署一个简单的分布式系统,文章结尾留下了几个问题,其中一个是"如何解决多站点下Session共享".这篇文章将会介绍如何使用Redis,下一篇 ...

  8. 准确率和召回率(precision&recall)

    在机器学习.推荐系统.信息检索.自然语言处理.多媒体视觉等领域,常常会用到准确率(precision).召回率(recall).F-measure.F1-score 来评价算法的准确性. 一.准确率和 ...

  9. 当一个线程进入一个对象的一个synchronized方法后,其它线程是否可进入此对象的其它方法(转)

    对象的synchronized方法不能进入了,但它的其他非synchronized方法还是可以访问的 对每一个class只有一个thread可以执行synchronized static method ...

  10. NSIS:使用WinVer.nsh头文件判断操作系统版本

    原文 NSIS:使用WinVer.nsh头文件判断操作系统版本 AtLeastWin<version> 检测是否高于指定版本 IsWin<version> 检测指定版本(唯一限 ...