adoop集群动态添加和删除节点
上篇博客我已经安装了Hadoop集群(hadoop集群的安装步骤和配置),现在写这个博客我将在之前的基础上进行节点的添加的删除。
首先将启动四台机器(一主三从)组成的hadoop集群,还是要提醒一句,在启动集群的时候一定要切换到hadoop用户下,并使用jps命令检查hadoop集群中的每台机器是否已经启动成功。
master机器:
- [root@master ~]# su - hadoop
- [hadoop@master ~]$ start-all.sh
- Warning: $HADOOP_HOME is deprecated.
- starting namenode, logging to/home/hadoop/hadoop/libexec/../logs/hadoop-hadoop-namenode-master.out
- slave1: starting datanode, logging to/home/hadoop/hadoop/libexec/../logs/hadoop-hadoop-datanode-slave1.out
- slave3: starting datanode, logging to/home/hadoop/hadoop/libexec/../logs/hadoop-hadoop-datanode-slave3.out
- slave2: starting datanode, logging to/home/hadoop/hadoop/libexec/../logs/hadoop-hadoop-datanode-slave2.out
- master: starting secondarynamenode, loggingto/home/hadoop/hadoop/libexec/../logs/hadoop-hadoop-secondarynamenode-master.out
- starting jobtracker, logging to/home/hadoop/hadoop/libexec/../logs/hadoop-hadoop-jobtracker-master.out
- slave2: starting tasktracker, logging to/home/hadoop/hadoop/libexec/../logs/hadoop-hadoop-tasktracker-slave2.out
- slave1: starting tasktracker, logging to/home/hadoop/hadoop/libexec/../logs/hadoop-hadoop-tasktracker-slave1.out
- slave3: starting tasktracker, logging to /home/hadoop/hadoop/libexec/../logs/hadoop-hadoop-tasktracker-slave3.out
- [hadoop@master ~]$ jps
- 1900 Jps
- 1662 SecondaryNameNode
- 1741 JobTracker
- 1512 NameNode
- [hadoop@master ~]$
slave1机器:
- [root@slave1 ~]# su - hadoop
- [hadoop@slave1 ~]$ jps
- 1476 DataNode
- 1562 TaskTracker
- 1620 Jps
slave2机器:
- [root@slave2 ~]# su - hadoop
- [hadoop@slave2 ~]$ jps
- 1474 DataNode
- 1630 Jps
- 1536 TaskTracker
slave3机器:
- [root@slave3 ~]# su - hadoop
- [hadoop@slave3 ~]$ jps
- 1474 DataNode
- 1651 Jps
- 1536 TaskTracker
四台机器的hadoop集群启动成功,在通过浏览器看一下集群的情况,如下面的图,mapreduce和namenode都是对应三个从服务器。
namenode:
mapreduce:
现在我就执行添加服务器的操作,其实这个很简单,首先我们要准备一台新的服务器,并且在新的服务器中安装好jdk环境以及hadoop,具体怎么安装就不说了,看上一篇博客。
修改所有机器的hosts文件和/home/hadoop/hadoop/conf下slaves文件,切换到hosts文件在文件的后面添加新节点的ip和机器名:192.168.56.204 slaves,再切换到hadoop用户,在slaves文件后面添加slave4,到此一台机器就配置完成,其他机器也是一样。新添加的节点中hosts文件和/home/hadoop/hadoop/conf下slaves文件内容和之前已经存在的节点配置一样,这里就不赘述了。
这里需要注意的是,需要在master机器中将.ssh目录下的公钥认证列表authorized_keys发送给slave4,这样启动hadoop集群的时候就不要输入slave4机器的密码了,方便启动操作,其实不发也可以,就是启动集群的时候数据密码麻烦一点。
配置都完成了,现在就在slave4机器中操作了。
切换到hadoop用户,进入hadoop的bin目录下执行下面的两个命令:
- [hadoop@slave4 bin]$ hadoop-daemon.sh startdatanode
- Warning: $HADOOP_HOME is deprecated.
- starting datanode, logging to/home/hadoop/hadoop/libexec/../logs/hadoop-hadoop-datanode-slave4.out
- [hadoop@slave4 bin]$
- [hadoop@slave4 bin]$
- [hadoop@slave4 bin]$ hadoop-daemon.sh starttasktracker
- Warning: $HADOOP_HOME is deprecated.
- starting tasktracker, logging to/home/hadoop/hadoop/libexec/../logs/hadoop-hadoop-tasktracker-slave4.out
使用jps检测是否启动成功:
- [hadoop@slave4 bin]$ jps
- 24581 Jps
- 24505 TaskTracker
- 24432 DataNode
- [hadoop@slave4 bin]$
然后我们通过浏览器访问namenode和mapreduce,看集群中是否添加了一个节点。
namenode:
mapreduce:
添加成功后我们就要考虑删除如何执行。其实并难。
首先关闭需要删除的节点:
- [hadoop@slave4 bin]$ hadoop-daemon.sh stopdatanode
- Warning: $HADOOP_HOME is deprecated.
- stopping datanode
- [hadoop@slave4 bin]$ hadoop-daemon.sh stoptasktracker
- Warning: $HADOOP_HOME is deprecated.
- stopping tasktracker
使用jps命令检查是否关闭成功。
- [hadoop@slave4 bin]$ jps
- 24649 Jps
- [hadoop@slave4 bin]$
其实此时通过浏览器查看已经少了一个节点,但是这种删除只是临时的,当集群关闭,再重新启动集群,这个临时删除的节点就会再次加到集群中。
接下来我就说一下如何在配置文件中配置,保证重启集群,不会再将删除的集群添加进去。
进入master机器中hadoop用户下hadoop解压目录下的conf目录:
将:将下面的这几行添加到hdfs-site.xml配置文件中即可。
- <property>
- <name>dfs.hosts.exclude</name>
- <value>/home/hadoop/hadoop/conf/excludes</value>
- </property>
然后在conf目录下创建一个excludes文件,将需要删除的节点机器名添加到文件中即可。
添加结束后刷新一下节点信息:
- [hadoop@master conf]$ hadoop dfsadmin –refreshNodes
刷新浏览器,查看namenode和mapreduce对应的节点数:
namenode:
mapreduce:
adoop集群动态添加和删除节点的更多相关文章
- Redis集群动态增加和删除节点
一.添加节点 1.首先将需要添加的节点启动: 这里启动redis6383.conf和redis6393.conf两个节点 查看原有节点: 3个主节点所对应的哈希槽(hash slo ...
- 使用Cloudrea Manager在CDH集群中添加kafka服务节点,更改borker.id配置后无法启动
需要保证meta.properties文件中的broker.id和cloudrea manager的web页面上kafka配置的broker.id一致,最好让server.properties中的br ...
- Hadoop概念学习系列之Hadoop集群动态增加新节点或删除已有某节点及复制策略导向 (四十三)
不多说,直接上干货! hadoop-2.6.0动态添加新节点 https://blog.csdn.net/baidu_25820069/article/details/52225216 Hadoop集 ...
- Elasticsearch集群管理之添加、删除节点
1.问题抛出 1.1 新增节点问题 我的群集具有黄色运行状况,因为它只有一个节点,因此副本保持未分配状态,我想要添加一个节点,该怎么弄? 1.2 删除节点问题 假设集群中有5个节点,我必须在运行时删除 ...
- Redis 集群环境添加节点失败问题
最近在给公司网管系统Redis集群环境添加节点时候遇到一个问题,提示新增的Node不为空: [root@node00 src]# ./redis-trib.rb add-node --slave -- ...
- 在Hadoop集群中添加机器和删除机器
本文转自:http://www.cnblogs.com/gpcuster/archive/2011/04/12/2013411.html 无论是在Hadoop集群中添加机器和删除机器,都无需停机,整个 ...
- 向CDH5集群中添加新的主机节点
向CDH5集群中添加新的主机节点 步骤一:首先得在新的主机环境中安装JDK,关闭防火墙.修改selinux.NTP时钟与主机同步.修改hosts.与主机配置ssh免密码登录.保证安装好了perl和py ...
- 在页面上绘制一张表格,使用 DOM 节点的动态添加和删除向表格中插入数据,点击表格每行后的“删除”超链接
查看本章节 查看作业目录 需求说明: 在页面上绘制一张表格,使用 DOM 节点的动态添加和删除向表格中插入数据,点击表格每行后的"删除"超链接,使用 DOM 节点的删除操作将对应的 ...
- Hyperledger Fabric节点的动态添加和删除
前言 在Hyperledger Fabric组织的动态添加和删除中,我们已经完成了在运行着的网络中动态添加和删除组织.本文将在其基础上,详细介绍了如何在 soft 组织上添加新的 peer2 节点,并 ...
随机推荐
- EF core 中用lambda表达式和Linq的一些区别
转眼一看,又过了10几天没有写博客了,主要还是没有什么可以写的,因为遇到的问题都不是很有价值.不过最近发现用lambda表达式,比用Linq的代码量会少一些,而且也方便一些.不过两者都差不多,相差不是 ...
- 快速创建显示数字数据的动画——CountUp.js
由于项目需求,需要写一个数字增/减量的动画特效,最后找到了CountUp.js CountUp.js是一个无依赖,轻量级的JavaScript“类”,可用于快速创建以更有趣的方式显示数字数据的动画. ...
- Git基本使用及工具
好久没用git管理代码了,最近忙着要实习,一直在看面试题,后天入职了,就提前再复习一下git吧. git比较方便的两个网站,如果你想逼格高就用GitHub(https://github.com/),如 ...
- 01 shell编程规范与变量
前言: 大家对shell脚本应该都不算陌生了,如果突然问你什么是shell脚本?是干什么用的?由什么组成以及怎么使用?变量的概念是什么?作用范围是什么?变量间的算术运算怎么表示?你能很容易答出来吗 本 ...
- dynamic-insert和dynamic-update属性
dynamic-insert 作用:设置对象中没有值的字段 insert并不会对其进行插入. 实体类映射配置如下 <!DOCTYPE hibernate-mapping PUBLIC &quo ...
- jQuery(一)初识
jQuery 的功能概括 1.html 的元素选取 2.html的元素操作 3.html dom遍历和修改 4.js特效和动画效果 5.css操作 6.html事件操作 7.ajax异步请求方式 se ...
- Yaf学习(一)----Linux安装Yaf
1.简介 Yaf,全称 Yet Another Framework,是一个高性能的PHP开发框架,采用PHP扩展实现(c语言).Blablablabla....... 2.环境 2.1 虚拟机 虚拟机 ...
- Python学习笔记:第一天python基础
目录 1. python简介 2. python的安装 3. 编写第一个helloword 4. 变量和常量 5. 数据类型 6. 输入 7. if语句 1. python简介 python是在198 ...
- Python学习手册之Python介绍、基本语法(二)
在上一篇文章中,我们介绍了Python的一些基本语法,现在我们继续介绍剩下的Python基本语法.查看上一篇文章请点击:https://www.cnblogs.com/dustman/p/987193 ...
- 解决如下出错:DeprecationWarning: Passing 1d arrays as data is deprecated in 0.17 and willraise ValueError in 0.19.
背景:在Spyder中写几行脚本,目的是应用sklearn自带的svm(支持向量机)算法,来对其自带的digits(手写体数字)数据集进行分类,过程包括训练阶段和预测阶段.将手写体数字数据的特征数据d ...