使用ansible控制Hadoop服务的启动和停止
一、环境:
服务器一台,已安装centos7.5系统,做ansible服务器;
客户机三台:hadoop-master(192.168.1.18)、hadoop-slave1(192.168.1.19)、hadoop-slave2(192.168.1.20)
二、ansible软件安装:
[root@centos75 ~]# yum install ansible
三、ansible配置过程:
1、服务器与客户机之间的免密配置:
(1)生成密钥: ssh-keygen -t rsa
(2)传递密钥:
[root@centos75 ~]# ssh-copy-id -i ~/.ssh/id_rsa.pub root@192.168.1.18
[root@centos75 ~]# ssh-copy-id -i ~/.ssh/id_rsa.pub root@192.168.1.19
[root@centos75 ~]# ssh-copy-id -i ~/.ssh/id_rsa.pub root@192.168.1.20
2、ansible配置
(1)Inventory主机清单配置:
[root@centos75 ~]# vi /etc/ansible/hosts
...
[hadoop]
192.168.1.[18:20] #这是一种IP地址段表示方式,也可单列每个IP地址。
(2)配置ansible.cfg:
[root@centos75 ~]# vi /etc/ansible/ansible.cfg
...
host_key_checking = False #禁用每次执行ansbile命令检查ssh key host
...
log_path = /var/log/ansible.log #开启日志记录
...
[accelerate] #ansible连接加速配置
#accelerate_port = 5099
accelerate_port = 10000
...
accelerate_multi_key = yes
...
deprecation_warnings = False #屏蔽弃用告警提示,减少不必要的信息显示
...
四、测试
[root@centos75 ~]# ansible all -m ping
192.168.1.20 | SUCCESS => {
"changed": false,
"ping": "pong"
}
192.168.1.18 | SUCCESS => {
"changed": false,
"ping": "pong"
}
192.168.1.19 | SUCCESS => {
"changed": false,
"ping": "pong"
}
上述信息表明ansible管理对象已全部ping通,ansible配置正常。
五、使用示例
(1) Ad-Hoc模式:
修改Hadoop三台集群服务器的/etc/hosts文件:
[root@centos75 ~]# vi hosts
#127.0.1.1 hadoop-master
192.168.1.18 hadoop-master
192.168.1.19 hadoop-slave1
192.168.1.20 hadoop-slave2
# The following lines are desirable for IPv6 capable hosts
::1 ip6-localhost ip6-loopback
fe00::0 ip6-localnet
ff00::0 ip6-mcastprefix
ff02::1 ip6-allnodes
ff02::2 ip6-allrouters
~
[root@centos75 ~]# ansible hadoop -m copy -a "src=/root/hosts dest=/etc/hosts"
192.168.1.20 | SUCCESS => {
"changed": true,
"checksum": "214f72ce3329805c07748997e11313fffb03f667",
"dest": "/etc/hosts",
"gid": 0,
"group": "root",
"md5sum": "127193e1ec4773ce0195636c5ac2bf3a",
"mode": "0644",
"owner": "root",
"size": 298,
"src": "/root/.ansible/tmp/ansible-tmp-1536384515.76-109467000571031/source",
"state": "file",
"uid": 0
}
192.168.1.18 | SUCCESS => {
"changed": true,
"checksum": "214f72ce3329805c07748997e11313fffb03f667",
"dest": "/etc/hosts",
"gid": 0,
"group": "root",
"md5sum": "127193e1ec4773ce0195636c5ac2bf3a",
"mode": "0644",
"owner": "root",
"size": 298,
"src": "/root/.ansible/tmp/ansible-tmp-1536384515.74-269105082907411/source",
"state": "file",
"uid": 0
}
192.168.1.19 | SUCCESS => {
"changed": true,
"checksum": "214f72ce3329805c07748997e11313fffb03f667",
"dest": "/etc/hosts",
"gid": 0,
"group": "root",
"md5sum": "127193e1ec4773ce0195636c5ac2bf3a",
"mode": "0644",
"owner": "root",
"size": 298,
"src": "/root/.ansible/tmp/ansible-tmp-1536384515.75-259083114686776/source",
"state": "file",
"uid": 0
}
还可使用命令查看各客户机hosts文件内容:
ansible hadoop -m shell -a 'cat /etc/hosts'
ansible hadoop -m shell -a 'ls -lhat /etc/hosts'
(2) playbook剧本模式:
启动Hadoop集群服务:
[root@centos75 ~]# vi hadoop-start.yml
---
#“---”符号在yml文件中只能在开头出现一次,多次出现会报错;另外,此符号省略也可,不知为何,待继续研究...
- hosts: hadoop
#注意:“-”符号后必须有空格;“:”后面也必须有空格。
tasks:
#注意:缩进按两个空格规范,不能使用TAB!
- name: startup hadoop datanode services
shell: /root/hadoop-2.7.3/sbin/hadoop-daemon.sh start datanode #尽管集群服务器上已配置hadoop-2.7.3/sbin的环境变量,但这里必须使用绝对路径
- hosts: 192.168.1.18
tasks:
- name: startup hadoop namenode services
shell: /root/hadoop-2.7.3/sbin/hadoop-daemon.sh start namenode
~
[root@centos75 ~]# ansible-playbook hadoop-start.yml
PLAY [hadoop] ******************************************************************
TASK [Gathering Facts] *********************************************************
ok: [192.168.1.20]
ok: [192.168.1.19]
ok: [192.168.1.18]
TASK [startup hadoop datanode services] ****************************************
changed: [192.168.1.19]
changed: [192.168.1.18]
changed: [192.168.1.20]
PLAY [192.168.1.18] ************************************************************
TASK [Gathering Facts] *********************************************************
ok: [192.168.1.18]
TASK [startup hadoop namenode services] ****************************************
changed: [192.168.1.18]
PLAY RECAP *********************************************************************
192.168.1.18 : ok=4 changed=2 unreachable=0 failed=0
192.168.1.19 : ok=2 changed=1 unreachable=0 failed=0
192.168.1.20 : ok=2 changed=1 unreachable=0 failed=0
可在集群服务器上观察服务启动情况:
root@hadoop-master:~# jps
8976 DataNode
9231 Jps
9093 NameNode
root@hadoop-slave1:~# jps
7058 Jps
6972 DataNode
停止hadoop集群服务:
[root@centos75 ~]# vi hadoop-stop.yml
---
- hosts: hadoop
tasks:
- name: stop hadoop datanode services
shell: /root/hadoop-2.7.3/sbin/hadoop-daemon.sh stop datanode
- hosts: 192.168.1.18
tasks:
- name: stop hadoop namenode services
shell: /root/hadoop-2.7.3/sbin/hadoop-daemon.sh stop namenode
~
[root@centos75 ~]# ansible-playbook hadoop-stop.yml
PLAY [hadoop] ******************************************************************
TASK [Gathering Facts] *********************************************************
ok: [192.168.1.20]
ok: [192.168.1.19]
ok: [192.168.1.18]
TASK [stop hadoop datanode services] *******************************************
changed: [192.168.1.20]
changed: [192.168.1.19]
changed: [192.168.1.18]
PLAY [192.168.1.18] ************************************************************
TASK [Gathering Facts] *********************************************************
ok: [192.168.1.18]
TASK [stop hadoop namenode services] *******************************************
changed: [192.168.1.18]
PLAY RECAP *********************************************************************
192.168.1.18 : ok=4 changed=2 unreachable=0 failed=0
192.168.1.19 : ok=2 changed=1 unreachable=0 failed=0
192.168.1.20 : ok=2 changed=1 unreachable=0 failed=0
上述过程可看出,ansible已实现了对集群服务启停作业的集中控制。
使用ansible控制Hadoop服务的启动和停止的更多相关文章
- 通过命令窗口控制mysql服务的启动与停止
mysql服务的启动: 以管理员的身份运行cmd命令窗口,输入命名 net start mysql 如果不是以管理员的身份运行cmd,会提示如下错误 mysql服务的停止: 以管理员的身份运行cmd命 ...
- Centos7.3_x86_64通过systemctl控制tomcat8.0.46启动和停止
Centos7.3_x86_64通过systemctl控制tomcat8..46启动和停止 之前在centos 6上通过脚本控制tomcat 启动和停止的脚本,虽然在centos 7也可以使用,但ce ...
- Linux上服务的启动,停止和重启
(1)查看所有的服务 [berry@berry:practice] service Usage: service < option > | --status-all | [ service ...
- mysql服务的启动和停止 net stop mysql net start mysql
第一招.mysql服务的启动和停止 net stop mysql net start mysql 第二招.登陆mysql 语法如下: mysql -u用户名-p用户密码 键入命令mysql -uroo ...
- Windows服务之启动、停止、暂停、继续
原文:Windows服务之启动.停止.暂停.继续 Windows服务之启动.停止.暂停.继续 2011-11-09 15:07:37 我来说两句 收藏 我要投稿 [字体:小 大] ...
- Jenkins关闭、重启,Jenkins服务的启动、停止方法。
一.Jenkins关闭.重启 1.关闭Jenkins 只需要在访问jenkins服务器的网址url地址后加上exit,关闭Jenkins服务. 例如:http://localhost:8081/ex ...
- 管理weblogic服务的启动和停止
2012-11-10 12:58 26036人阅读 评论(4) 收藏 举报 分类: WebLogic(10) 版权声明:本文为博主原创文章,未经博主允许不得转载. 目录(?)[+] 介绍 Weblog ...
- linux系统下apache服务的启动、停止、重启命令
本文章简单的介绍了关于linux下在利用命令来操作apache的基本操作如启动.停止.重启等操作,对入门者不错的选择.本文假设你的apahce安装目录为 usr local apache2,这些方法适 ...
- hadoop历史服务的启动与停止
a.配置项(在分布式环境中配置) 1.RPC访问地址 mapreduce.jobhistory.address 2.HTTP访问地址 mapreduce.jobhistory.webapp.addre ...
随机推荐
- D - The Bakery CodeForces - 834D 线段树优化dp···
D - The Bakery CodeForces - 834D 这个题目好难啊,我理解了好久,都没有怎么理解好, 这种线段树优化dp,感觉还是很难的. 直接说思路吧,说不清楚就看代码吧. 这个题目转 ...
- Java λ表达式
目录 Java Lambda表达式 1. 函数式编程思想 2. 体验Lambda的更优写法 3. Lambda表达式的标准格式 4. 练习:使用Lambda表达式(无参无返回) 5. 练习:使用Lam ...
- Qt编程基础入门之二
QMainWindow 菜单栏 菜单栏 最多有一个 //菜单栏创建,一个 QMenuBar *menu = new QMenuBar(this); // this->setMenuBar(men ...
- LeetCode--LinkedList--141.Linked List Cycle(Easy)
141. Linked List Cycle(Easy)2019.7.10 题目地址https://leetcode.com/problems/linked-list-cycle/ Given a l ...
- 【FPGA技巧篇一】FPGA设计的四种常用思想与技巧之一 :乒乓操作
本文篇章将讨论一下的四种常用 FPGA 设计思想与技巧: 乒乓操作. 串并转换. 流水线操作. 数据接口同步化, 都是 FPGA 逻辑设计的内在规律的体现, 合理地采用这些设计思想能在FPGA设计工作 ...
- 【HDU4990】递推式
题目大意:给定序列 1, 2, 5, 10, 21, 42, 85, 170, 341 …… 求第n项 模 m的结果 递推式 f[i] = f[i - 2] + 2 ^ (i - 1); 方法一: ...
- DNSlog注入学习
之前一直有看到过DNSlog这个字眼,但一直没有好好去了解一下,最近又接触到了刚好来深入学习下 0x01 什么是DNSlog 我们都知道DNS就是将域名解析为ip,用户在浏览器上输入一个域名A.com ...
- sqli-labs之Page-1
搭建与安装 参考:https://www.fujieace.com/penetration-test/sqli-labs-ec.html 下载:sqli-labs下载 第一关:单引号报错注入 ?id= ...
- vue与其他框架对比
https://cn.vuejs.org/v2/guide/comparison.html 1. vue 框架的特点? MVVM框架模式 轻量级,灵活,容易上手 数据驱动 组件化(单文件组件) 插件化 ...
- POJ3903 Stock Exchange LIS最长上升子序列
POJ3903 Stock Exchange #include <iostream> #include <cstdio> #include <vector> #in ...