Docker跨主机网络联通之etcd实现
搭建ETCD集群
查看NODE1机器IP,并启动ETCD
ubuntu@docker-node1:~$ ifconfig eth0
eth0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1450
inet 172.16.1.15 netmask 255.255.255.0 broadcast 172.16.1.255
inet6 fe80::f816:3eff:fe33:11a8 prefixlen 64 scopeid 0x20<link>
ether fa:16:3e:33:11:a8 txqueuelen 1000 (Ethernet)
RX packets 11765471 bytes 10784121723 (10.0 GiB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 10697881 bytes 7319647448 (6.8 GiB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
ubuntu@docker-node1:~$ wget http://192.168.9.251:9000/software/etcd-v3.0.12-linux-amd64.tar.gz
ubuntu@docker-node1:~$ tar zxvf etcd-v3.0.12-linux-amd64.tar.gz
ubuntu@docker-node1:~$ cd etcd-v3.0.12-linux-amd64
ubuntu@docker-node1:~$ nohup ./etcd --name docker-node1 --initial-advertise-peer-urls http://172.16.1.15:2380 \
--listen-peer-urls http://172.16.1.15:2380 \
--listen-client-urls http://172.16.1.15:2379,http://127.0.0.1:2379 \
--advertise-client-urls http://172.16.1.15:2379 \
--initial-cluster-token etcd-cluster \
--initial-cluster docker-node1=http://172.16.1.15:2380,docker-node2=http://172.16.1.36:2380 \
--initial-cluster-state new&
查看NODE2机器IP、启动ETCD,并ETCD健康检查
ubuntu@docker-node2:~$ ifconfig eth0
eth0 Link encap:Ethernet HWaddr fa:16:3e:ec:fc:12
inet addr:172.16.1.36 Bcast:172.16.1.255 Mask:255.255.255.0
inet6 addr: fe80::f816:3eff:feec:fc12/64 Scope:Link
UP BROADCAST RUNNING MULTICAST MTU:1450 Metric:1
RX packets:18479729 errors:0 dropped:0 overruns:0 frame:0
TX packets:16843586 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:1000
RX bytes:7717777368 (7.7 GB) TX bytes:6506041953 (6.5 GB)
ubuntu@docker-node2:~$ wget http://192.168.9.251:9000/software/etcd-v3.0.12-linux-amd64.tar.gz
ubuntu@docker-node2:~$ tar zxvf etcd-v3.0.12-linux-amd64.tar.gz
ubuntu@docker-node2:~$ cd etcd-v3.0.12-linux-amd64
ubuntu@docker-node2:~$ nohup ./etcd --name docker-node2 --initial-advertise-peer-urls http://172.16.1.36:2380 \
--listen-peer-urls http://172.16.1.36:2380 \
--listen-client-urls http://172.16.1.36:2379,http://127.0.0.1:2379 \
--advertise-client-urls http://172.16.1.36:2379 \
--initial-cluster-token etcd-cluster \
--initial-cluster docker-node1=http://172.16.1.15:2380,docker-node2=http://172.16.1.36:2380 \
--initial-cluster-state new&
ubuntu@docker-node2:~/etcd-v3.0.12-linux-amd64$ ./etcdctl cluster-health
member cd18d4410e46bbd1 is healthy: got healthy result from http://172.16.1.36:2379
member d05d0bbb1534c7ee is healthy: got healthy result from http://172.16.1.15:2379
cluster is healthy
修改docker配置文件支持etcd,重启docker
查看配置文件位于哪里
systemctl show --property=FragmentPath docker
编辑配置文件内容,接收所有IP请求
sudo vim /usr/lib/systemd/system/docker.service
修改配置ExecStart ,在后面追加 --cluster-store=etcd://172.16.1.36:2379 --cluster-advertise=172.16.1.36:2375
ExecStart=/usr/bin/dockerd -H tcp://0.0.0.0:2375 -H unix:///var/run/docker.sock --cluster-store=etcd://172.16.1.36:2379 --cluster-advertise=172.16.1.36:2375
重新加载配置文件,重启DOCKER DAEMON
sudo systemctl daemon-reload
sudo systemctl restart docker
两台服务器都需要上述操作
创建全局网络,并在网络中添加容器
创建全局网络
ubuntu@docker-node1:~$ sudo docker network ls
NETWORK ID NAME DRIVER SCOPE
0e7bef3f143a bridge bridge local
a5c7daf62325 host host local
3198cae88ab4 none null local
ubuntu@docker-node1:~$ sudo docker network create -d overlay demo
3d430f3338a2c3496e9edeccc880f0a7affa06522b4249497ef6c4cd6571eaa9
ubuntu@docker-node1:~$ sudo docker network ls
NETWORK ID NAME DRIVER SCOPE
0e7bef3f143a bridge bridge local
3d430f3338a2 demo overlay global
a5c7daf62325 host host local
3198cae88ab4 none null local
ubuntu@docker-node1:~$ sudo docker network inspect demo
[
{
"Name": "demo",
"Id": "3d430f3338a2c3496e9edeccc880f0a7affa06522b4249497ef6c4cd6571eaa9",
"Scope": "global",
"Driver": "overlay",
"EnableIPv6": false,
"IPAM": {
"Driver": "default",
"Options": {},
"Config": [
{
"Subnet": "10.0.0.0/24",
"Gateway": "10.0.0.1/24"
}
]
},
"Internal": false,
"Containers": {},
"Options": {},
"Labels": {}
}
]
添加容器
在node1上添加cli1.yaml,内容如下,网络指定为上面创建的全局网络
version: '2'
services:
cli:
container_name: cli
image: hyperledger/fabric-tools:raft
tty: true
working_dir: /opt/gopath/src/github.com/hyperledger/fabric/peer
networks:
default:
external:
name: demo
在node2上添加cli2.yaml,内容如下,网络指定为上面创建的全局网络
version: '2'
services:
cli2:
container_name: cli2
image: hyperledger/fabric-tools:raft
tty: true
working_dir: /opt/gopath/src/github.com/hyperledger/fabric/peer
networks:
default:
external:
name: demo
利用docker-compose分别启动两个节点。
docker-compose -f cli1.yaml up -d
docker-compose -f cli2.yaml up -d
查看demo网络详情,可以看到两个容器已经加入同一网络。
ubuntu@docker-node1:~$ sudo docker network inspect demo
[
{
"Name": "demo",
"Id": "9dc055222c85e1ca09db6d66910c1dba27d342e070f1ca6f976533071344e939",
"Created": "2018-05-23T10:44:36.454709725+08:00",
"Scope": "global",
"Driver": "overlay",
"EnableIPv6": false,
"IPAM": {
"Driver": "default",
"Options": {},
"Config": [
{
"Subnet": "10.0.0.0/24",
"Gateway": "10.0.0.1"
}
]
},
"Internal": false,
"Attachable": false,
"Containers": {
"21da2d4d9b55e60b4636d7d0a9e7513b47784be55990ba46288a29a527ba470e": {
"Name": "cli",
"EndpointID": "411418d95a303f0452415e0481fc11ac41d6755e9680e042042f2afd93f62cca",
"MacAddress": "02:42:0a:00:00:03",
"IPv4Address": "10.0.0.3/24",
"IPv6Address": ""
},
"ep-6725169b38e657bd6cef4d1b1cdf530575b7caf78f78a037d21c65eb2c90e6ab": {
"Name": "cli2",
"EndpointID": "6725169b38e657bd6cef4d1b1cdf530575b7caf78f78a037d21c65eb2c90e6ab",
"MacAddress": "02:42:0a:00:00:02",
"IPv4Address": "10.0.0.2/24",
"IPv6Address": ""
}
},
"Options": {},
"Labels": {}
}
]
Docker跨主机网络联通之etcd实现的更多相关文章
- Docker跨主机网络——overlay
前言 在Docker网络--单host网络一文中,我为大家总结了Docker的单机网络相关知识和操作,单机网络比较容易.本文我为大家总结Docker跨主机通信相关知识.同样本文大部分内容以CloudM ...
- Docker 跨主机网络
Docker提供两种原生的跨主机网络: Overlay 和 Macvlan libnetwork & CNM libnetwork 是 docker 容器网络库,最核心的内容是其定义的 C ...
- Docker 跨主机网络 overlay(十六)
目录 一.跨主机网络概述 二.准备 overlay 环境 1.环境描述 2.创建 consul 3.修改 docker 配置文件 4.准备就绪 三.创建 overlay 网络 1.在 host1 中创 ...
- Docker跨主机网络实践
Docker使用中网络管理是最麻烦的,在项目初始化前期就需要进行合理的规划,如果在比较理想的单主机的网络通信是比较简单的,但如果涉及到跨主机的网络就需要使用docker自带的overlay netwo ...
- docker 跨主机网络:overlay 简介
简介 docker 在早前的时候没有考虑跨主机的容器通信,这个特性直到 docker 1.9 才出现.在此之前,如果希望位于不同主机的容器能够通信,一般有几种方法: 使用端口映射:直接把容器的服务端口 ...
- Docker 跨主机网络方案分析
PS:文章首发公众号,欢迎大家关注我的公众号:aCloudDeveloper,专注技术分享,努力打造干货分享平台,二维码在文末可以扫,谢谢大家. 上篇文章介绍了容器网络的单主机网络,本文将进一步介绍多 ...
- Docker跨主机网络解决方案
前言:前面的部分一直都是单机跑docker,但实际生产环境不可能只用一台来跑.肯定会用到多台,因为他们都是内部私有ip,那么多台主机之间的容器如何通信?这个是个很头疼的问题!目前主流几种方法如下:1. ...
- 安装docker跨主机网络flannel
一.实验环境 机器 操作系统 安装服务 172.16.4.36 centos7 docker etcd flannel 172.16.4.37 centos7 docker etcd flanne ( ...
- centos7下安装docker(15.2跨主机网络-overlay)
为支持容器跨主机通信,Docker提供了overlay driver,使用户可以创建基于VxLAN的overlay网络.VxLAN可将二层数据封装到UDP进行传输,VxLAN提供与VLAN相同的以太网 ...
随机推荐
- 问题记录 --Error parsing column 1 (Function_Num=10 - String)”
当C#查询数据库出现Error parsing column ## 的时候,首先去看看数据库里面该字段是什么类型,然后在看看你在创建model 的时候是什么类型,如果model的类型和数据库字段类型不 ...
- 使用easyui搭建网页架子
使用踩坑: 一.弹出框上datagrid第二次加载数据,必须在显示状态,datagrid加载数据才会渲染,否则是空白 $('#xq_selKs').window('open').window('cen ...
- 获取地址栏url
Url=${window.location.protocol}//${window.location.host}${window.location.pathname}
- stm32高级定时器的应用——spwm
用过stm32定时器的朋友都知道,定时器的CCR寄存器,可以用来配置PWM的输出,但同样也可以用来配置spwm.废话不多说,直接上代码. 首先,你得考虑一下几个因素: 1.同步调制还是异步调制. 2 ...
- sublime There are no packages available for installation 问题的解决办法
这个是因为IPv6的原因, 因此我们需要修改我们的 /etc/hosts文件. 第一步: 执行: nm-tool 获取DNS的信息 例如: DNS: 192.168.1.11 第二步: 在/etc/h ...
- 关于Oracle的44951事件
最近有同事遇到某客户数据库产生大量阻塞,等待事件为:enq HW - contention,最开始采用不断杀会话的方式,效果不好,问题一直高频反复.进一步确认SQL是大量的insert,且插入的表中含 ...
- md5加密utils
package cn.itcast.bos.utils; import java.math.BigInteger; import java.security.MessageDigest; impo ...
- luogu P3197 [HNOI2008]越狱
构造长度为n的串,给定m种颜色,求使得相邻两位的颜色相同的方案数 显然可以看出长度为n的串染m种颜色的总方案数为$m^{n}$ 然后来考虑相邻两位颜色不同的方案 对于第一位,有m种选择 对于剩余的n- ...
- 用Cocos2dx开发棋牌游戏的观点解析
众所周知,目前棋牌游戏特别的火.很多游戏公司都想在这一块赚钱,可是却不知用什么软件比较好的去开发棋牌游戏,对此,我列出了两款比较靠谱的软件去开发棋牌游戏,希望对大家有帮助! 第一款软件是cocos2d ...
- Linux基础命令---ipcs显示进程通信
ipcs ipcs指令用来显示进程间通信状况.“-i”选项允许指定特定的资源id.将只打印有关此id的信息. 此命令的适用范围:RedHat.RHEL.Ubuntu.CentOS.Fedora.SUS ...