实验环境:

主机名 ip地址 运行服务 安装组件
docker-master1 192.168.20.210 zookeeper
mesos-master
marathon

mesos
marathon
mesosphere-zookeeper

jdk1.8

docker-master2 192.168.20.211 zookeeper
mesos-master
marathon

mesos
marathon
mesosphere-zookeeper

jdk1.8

docker-master3 192.168.20.212 zookeeper
mesos-master
marathon

mesos
marathon
mesosphere-zookeeper

jdk1.8

docker-slave1 192.168.20.213 mesos-slave 

mesos

docker-engine

docker-slave2 192.168.20.214 mesos-slave

mesos

docker-engine

一、 准备工作:
1.1   关闭Selinux
# setenforce 0

# sed -i '/^SELINUX=/c SELINUX=disabled'/etc/selinux/config

1.2   关闭防火墙
# systemctl stop firewalld

# systemctl disable firewalld

1.3   配置主机名解析
[root@docker-master1 ~]# vi /etc/hosts

192.168.20.210 docker-master1
192.168.20.211 docker-master2
192.168.20.212 docker-master3
192.168.20.213 docker-slave1
192.168.20.214 docker-slave2

1.4更新mesos、marathon源

rpm -ivh http://repos.mesosphere.com/el/7/noarch/RPMS/mesosphere-el-repo-7-1.noarch.rpm

二、 master节点配置

2.1 master节点安装JDK1.8

tar -zxvf /root/jdk-8u171-linux-x64.tar.gz -C /usr/local

cat >> /etc/profile << EOF

export JAVA_HOME=/usr/local/jdk1..0_171
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export PATH=$JAVA_HOME/bin:$PATH EOF

source /etc/profile

2.2 master 安装zookeeper(这里只以192.168.20.210为例)

2.2.1 解压zookeeper

tar zxf /root/zookeeper-3.4.8.tar.gz /usr/local

2.2.2创建zookeeper的日志目录和数据目录

mkdir /usr/local/zookeeper-3.4.8/{logs,data}

2.2.3修改zookeeper配置文件

touch /usr/local/zookeeper-3.4.8/conf/zoo.cfg

cat /usr/local/zookeeper-3.4./conf/zoo.cfg

tickTime=
dataDir=/usr/local/zookeeper-3.4.8/data
dataLogDir=/usr/local/zookeeper-3.4.8/logs
clientPort=
initLimit=
syncLimit=
server.=192.168.20.210::
server.=192.168.20.211::
server.=192.168.20.212::

1、2、3表示对应服务器上的myid,2888端口表示和leader通讯端口,3888端口表示选举端口

touch /usr/local/zookeeper-3.4.8/data/myid (每台主机上的myid是有zoo.cfg文件里的server后面的数字决定)

cat /usr/local/zookeeper-3.4./data/myid
cat >> /etc/profile << EOF
export PATH=$PATH:/usr/local/zookeeper-3.4./bin
EOF

source /etc/profile

2.2.4启动zookeeper

 zkServer.sh start

2.2.5 查看zookeeper状态

[root@docker-master1 zookeeper]# zkServer.sh status
ZooKeeper JMX enabled by default
Using config: /usr/local/zookeeper/bin/../conf/zoo.cfg
Mode: follower

2.3 master节点安装mesos(这里只以192.168.20.210为例)

2.3.1安装mesos程序

yum install mesos -y

2.3.2配置mesos

vi /etc/mesos/zk

zk://192.168.20.210:2181,192.168.20.211:2181,192.168.20.212:2181/mesos
[root@docker-master1 ~]# cd /etc/mesos-master
[root@docker-master1 mesos-master]# cat cluster
mesoscluster
[root@docker-master1 mesos-master]# cat hostname
192.168.20.210
[root@docker-master1 mesos-master]# cat ip
192.168.20.210
[root@docker-master1 mesos-master]# cat quorum
2
[root@docker-master1 mesos-master]# cat work_dir
/var/lib/mesos

quorum表示zookeeper集群中 要求最少参加选举节点的数目,一般设置为zookeeper集群节点个数的一半多些(比如3个节点的话,可配置为2)

2.3.2 启动mesos服务

systemctl start mesos-master

默认端口5050,访问地址:http://192.168.20.210:5050

2.4 master节点安装marathon(这里只以192.168.20.210为例)

2.4.1 安装marathon程序

yum install -y marathon

2.4.1创建marathon配置文件目录(1.5版本之前)

mkdir -p /etc/marathon/conf
[root@docker-master1 conf]# ls
hostname master zk
[root@docker-master1 conf]# cat hostname
192.168.20.210
[root@docker-master1 conf]# cat master
zk://192.168.20.210:2181,192.168.20.211:2181,192.168.20.212:2181/mesos
[root@docker-master1 conf]# cat zk
zk://192.168.20.210:2181,192.168.20.211:2181,192.168.20.212:2181/marathon

1.5版本之后在/etc/default/marathon文件最下面增加如下两行

MARATHON_MASTER=zk://docker-master1:2181,docker-master2:2181,docker-master3:2181/mesos
MARATHON_ZK=zk://docker-master1:2181,docker-master2:2181,docker-master3:2181/marathon

2.4.2 启动marathon

systemctl start marathon

如果启动不了,查看/var/log/message,如有以下错误,

No start hook file found ($HOOK_MARATHON_START). Proceeding with the start script.

则可以在命令行直接启动marathon

nohup marathon --master zk://192.168.20.210:2181,192.168.20.211:2181,192.168.20.212:2181/mesos --zk zk://192.168.20.210:2181,192.168.20.211:2181,192.168.20.212:2181/marathon &

默认8080端口,访问地址:http://192.168.20.210:8080/ui/#/apps

三、slave节点配置

3.1 slave安装docker(这里只以192.168.20.213为例)

yum install docker

3.1.1 启动docker并且设置为开机自启动

systemctl enable docker.service

systemctl start docker.service

3.2 slave安装mesos(这里只以192.168.20.213为例)

3.2.1 安装mesos程序

yum install mesos -y

3.2.2配置mesos-slave

[root@docker-slave1 mesos-slave]# cd /etc/mesos-slave/
[root@docker-slave1 mesos-slave]# ls
attributes containerizers executor_registration_timeout hostname ip work_dir
[root@docker-slave1 mesos-slave]# cat attributes
rack_id:rack-
[root@docker-slave1 mesos-slave]# cat containerizers
docker,mesos
[root@docker-slave1 mesos-slave]# cat executor_registration_timeout
15mins
[root@docker-slave1 mesos-slave]# cat hostname
192.168.20.213
[root@docker-slave1 mesos-slave]# cat ip
192.168.20.213
[root@docker-slave1 mesos-slave]# cat work_dir
/var/lib/mesos

3.2.3启动mesos-slave

systemctl start mesos-slave

mesos-slave默认端口为5051

完成以上操作即完成了Mesos的DCOS集群搭建,下一章我们介绍《marathon的高可用服务自动发现和负载均衡》。

docker+zookeeper+mesos+marathon集群的更多相关文章

  1. 基于zookeeper+mesos+marathon的docker集群管理平台

    参考文档: mesos:http://mesos.apache.org/ mesosphere社区版:https://github.com/mesosphere/open-docs mesospher ...

  2. Docker快速搭建Zookeeper和kafka集群

    使用Docker快速搭建Zookeeper和kafka集群 镜像选择 Zookeeper和Kafka集群分别运行在不同的容器中zookeeper官方镜像,版本3.4kafka采用wurstmeiste ...

  3. 使用Docker快速搭建Zookeeper和kafka集群

    使用Docker快速搭建Zookeeper和kafka集群 镜像选择 Zookeeper和Kafka集群分别运行在不同的容器中zookeeper官方镜像,版本3.4kafka采用wurstmeiste ...

  4. 基于zookeeper的Swarm集群搭建

    简介 Swarm:docker原生的集群管理工具,将一组docker主机作为一个虚拟的docker主机来管理. 对客户端而言,Swarm集群就像是另一台普通的docker主机. Swarm集群中的每台 ...

  5. Docker 部署 RocketMQ Dledger 集群模式( 版本v4.7.0)

    文章转载自:http://www.mydlq.club/article/97/ 系统环境: 系统版本:CentOS 7.8 RocketMQ 版本:4.7.0 Docker 版本:19.03.13 一 ...

  6. Docker 容器部署 Consul 集群

    Docker 容器部署 Consul 集群 一.docker安装与启动1.1安装docker[root@localhost /]# yum -y install docker-io 1.2更改配置文件 ...

  7. zookeeper部署及集群测试

    zookeeper部署及集群测试 环境 三台测试机 操作系统: centos7 ; hostname: c1 ; ip: 192.168.1.80 操作系统: centos7 ; hostname: ...

  8. ZooKeeper伪分布集群安装及使用 RMI+ZooKeeper实现远程调用框架

    使用 RMI + ZooKeeper 实现远程调用框架,包括ZooKeeper伪集群安装和代码实现两部分.  一.ZooKeeper伪集群安装: 1>获取ZooKeeper安装包 下载地址:ht ...

  9. (转)ZooKeeper伪分布式集群安装及使用

    转自:http://blog.fens.me/hadoop-zookeeper-intro/ 前言 ZooKeeper是Hadoop家族的一款高性能的分布式协作的产品.在单机中,系统协作大都是进程级的 ...

随机推荐

  1. Linux内核静态映射表的建立过程

    /* *    平台:   s5pv210 *    内核版本号: 2.6.35.7 */ kernel/arch/arm/mach-s5pv210/mach-smdkc110.c 这个文件是由三星在 ...

  2. cratedb joins 原理(官方文档)

      JOINs are essential operations in relational databases. They create a link between rows based on c ...

  3. cocos2dx 3.2 事件机制

    一个sprite的情况 // oneSprite void HelloWorld::touchableSpriteTestOne() { Vec2 origin = Director::getInst ...

  4. Chrome 的应用功能越来越强大

    Chrome 的应用功能越来越强大 升级到 版本 70.0.3538.77 最早的时候是看到 http 显示地址,现在可以在快捷应用中显示扩展了,还可以看到显示的站点. 现在越来越强大了.

  5. FastDFS简介和安装

    FastDFS是一个轻量级的开源分布式文件系统 FastDFS主要解决了大容量的文件存储和高并发访问的问题,文件存取时实现了负载均衡 FastDFS实现了软件方式的RAID,可以使用廉价的IDE硬盘进 ...

  6. [转]jQuery 读取 xml

    XML 文件内容: <?xml version="1.0" encoding="UTF-8"?> <stulist> <stude ...

  7. [saiku] schema文件分析

    上一篇讲到了如何在管理台配置数据源 [ http://www.cnblogs.com/avivaye/p/4877767.html ] 这次来说明下shema文件里面是怎样配置Cube和角色权限的 通 ...

  8. EMF与GEF

    基于Eclipse的编程架构 类似的场景大家基本都见过: JBPM--流程插件 Mule---ESB插件

  9. react之echarts数据更新

    react之echarts数据更新 在使用setState更新数据时,如果要将图标更新,需要做一些简单的封装,代码如下: import React, { Component } from 'react ...

  10. Linux 移除python Error: Trying to remove “yum”, which is protected

    >yum intall python >yum -y remove python 出现Error: Trying to remove "yum", which is p ...