试了下比较流行的几种SDN,感觉flannel还是比较好用,这里简单记录一下。

用的是virtualbox,3个机器,分别为:

  • genesis : inet 192.168.99.103/24 brd 192.168.99.255 scope global dynamic enp0s3
  • exodus : inet 192.168.99.105/24 brd 192.168.99.255 scope global dynamic enp0s3
  • leviticus : inet 192.168.99.106/24 brd 192.168.99.255 scope global dynamic enp0s3

虚机信息如下

  1. [root@localhost yum.repos.d]# uname -mars
  2. Linux localhost.localdomain 3.10.0-229.el7.x86_64 #1 SMP Fri Mar 6 11:36:42 UTC 2015 x86_64 x86_64 x86_64 GNU/Linux
  1. [root@localhost yum.repos.d]# cat /etc/*-release
  2. CentOS Linux release 7.3.1611 (Core)
  3. NAME="CentOS Linux"
  4. VERSION="7 (Core)"
  5. ID="centos"
  6. ID_LIKE="rhel fedora"
  7. VERSION_ID="7"
  8. PRETTY_NAME="CentOS Linux 7 (Core)"
  9. ANSI_COLOR="0;31"
  10. CPE_NAME="cpe:/o:centos:centos:7"
  11. HOME_URL="https://www.centos.org/"
  12. BUG_REPORT_URL="https://bugs.centos.org/"
  13. CENTOS_MANTISBT_PROJECT="CentOS-7"
  14. CENTOS_MANTISBT_PROJECT_VERSION="7"
  15. REDHAT_SUPPORT_PRODUCT="centos"
  16. REDHAT_SUPPORT_PRODUCT_VERSION="7"
  17. CentOS Linux release 7.3.1611 (Core)
  18. CentOS Linux release 7.3.1611 (Core)
  19. [root@localhost yum.repos.d]# docker version
  20. Client:
  21. Version: 1.12.5
  22. API version: 1.24
  23. Go version: go1.6.4
  24. Git commit: 7392c3b
  25. Built: Fri Dec 16 02:23:59 2016
  26. OS/Arch: linux/amd64

随便选择两台机器run一下,在容器中ifconfig:

  1. [root@localhost ~]# docker run -it busybox
  2. / # ifconfig
  3. eth0 Link encap:Ethernet HWaddr 02:42:AC:11:00:02
  4. inet addr:172.17.0.2 Bcast:0.0.0.0 Mask:255.255.0.0
  5. inet6 addr: fe80::42:acff:fe11:2/64 Scope:Link
  6. UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
  7. RX packets:12 errors:0 dropped:0 overruns:0 frame:0
  8. TX packets:6 errors:0 dropped:0 overruns:0 carrier:0
  9. collisions:0 txqueuelen:0
  10. RX bytes:1016 (1016.0 B) TX bytes:508 (508.0 B)
  11. lo Link encap:Local Loopback
  12. inet addr:127.0.0.1 Mask:255.0.0.0
  13. inet6 addr: ::1/128 Scope:Host
  14. UP LOOPBACK RUNNING MTU:65536 Metric:1
  15. RX packets:0 errors:0 dropped:0 overruns:0 frame:0
  16. TX packets:0 errors:0 dropped:0 overruns:0 carrier:0
  17. collisions:0 txqueuelen:0
  18. RX bytes:0 (0.0 B) TX bytes:0 (0.0 B)

发现参数完全相同,单纯bridge模式下并没有跨主机互通,而host模式是并不建议使用的。

install

yum install -y etcd flannel,如果没问题是再好不过了。

etcd 3.x支持--config-file参数,需要的话可以从源代码install(需要golang 1.6+)。

先从etcd开始,简单说就是"distributed key value store"。

etcd集群的3种方式:

  • static
  • etcd discovery
  • DNS discovery

DNS discovery主要是用srv record,这里先不搞DNS服务,下面对static和etcd discovery两种方式简单说明一下。

static

参数可以在启动时置顶,或者写到配置文件中,默认配置文件为/etc/etcd/etcd.conf

genesis的配置如下:

  1. ETCD_NAME=genesis
  2. ETCD_DATA_DIR="/var/lib/etcd/genesis"
  3. ETCD_LISTEN_PEER_URLS="http://192.168.99.103:2380"
  4. ETCD_LISTEN_CLIENT_URLS="http://192.168.99.103:2379,http://127.0.0.1:2379"
  5. ETCD_INITIAL_ADVERTISE_PEER_URLS="http://192.168.99.103:2380"
  6. ETCD_ADVERTISE_CLIENT_URLS="http://192.168.99.103:2379"
  7. ETCD_INITIAL_CLUSTER_STATE="new"
  8. ETCD_INITIAL_CLUSTER_TOKEN="etct-fantasy"
  9. ETCD_INITIAL_CLUSTER="exodus=http://192.168.99.105:2380,genesis=http://192.168.99.103:2380"

exodus的配置如下:

  1. ETCD_NAME=exodus
  2. ETCD_DATA_DIR="/var/lib/etcd/exodus"
  3. ETCD_LISTEN_PEER_URLS="http://192.168.99.105:2380"
  4. ETCD_LISTEN_CLIENT_URLS="http://192.168.99.105:2379,http://127.0.0.1:2379"
  5. ETCD_INITIAL_ADVERTISE_PEER_URLS="http://192.168.99.105:2380"
  6. ETCD_ADVERTISE_CLIENT_URLS="http://192.168.99.105:2379"
  7. ETCD_INITIAL_CLUSTER_STATE="new"
  8. ETCD_INITIAL_CLUSTER_TOKEN="etct-fantasy"
  9. ETCD_INITIAL_CLUSTER="exodus=http://192.168.99.105:2380,genesis=http://192.168.99.103:2380"

启动方式看自己喜好,如果打算用systemctl启动的话,注意/usr/lib/systemd/system/etcd.service中的内容可能不会如你所愿。

启动后,检查一下集群状态,顺便也看看有哪些成员:

  1. [root@localhost etcd]# etcdctl cluster-health
  2. member 7a4f27f78a05e755 is healthy: got healthy result from http://192.168.99.103:2379
  3. failed to check the health of member 8e8718b335c6c9a2 on http://192.168.99.105:2379: Get http://192.168.99.105:2379/health: dial tcp 192.168.99.105:2379: i/o timeout
  4. member 8e8718b335c6c9a2 is unreachable: [http://192.168.99.105:2379] are all unreachable
  5. cluster is healthy

提示"member unreachable",看来是被exodus的防火墙拦住了,我们先粗暴一点。

  1. [root@localhost etcd]# systemctl stop firewalld
  2. [root@localhost etcd]# etcdctl cluster-health
  3. member 7a4f27f78a05e755 is healthy: got healthy result from http://192.168.99.103:2379
  4. member 8e8718b335c6c9a2 is healthy: got healthy result from http://192.168.99.105:2379
  5. cluster is healthy

etcd discovery

当然,这样配置的前提是已经知道各个节点的信息。

但实际场景中可能无法预知各个member,所以我们需要让etcd自己去发现(discovery)。

首先,etcd提供了一个public discovery service - discovery.etcd.io,我们用它来生成一个discovery token,并在genesis创建目录:

  1. [root@localhost etcd]# curl https://discovery.etcd.io/new?size=3
  2. https://discovery.etcd.io/6321c0706046c91f2b2598206ffa3272
  3. [root@localhost etcd]# etcdctl set /discovery/6321c0706046c91f2b2598206ffa3272/_config/size 3

修改exodus的配置,用discovery代替之前的cluster:

  1. ETCD_NAME=exodus
  2. ETCD_DATA_DIR="/var/lib/etcd/exodus"
  3. ETCD_LISTEN_PEER_URLS="http://192.168.99.105:2380"
  4. ETCD_LISTEN_CLIENT_URLS="http://192.168.99.105:2379,http://127.0.0.1:2379"
  5. ETCD_INITIAL_ADVERTISE_PEER_URLS="http://192.168.99.105:2380"
  6. ETCD_ADVERTISE_CLIENT_URLS="http://192.168.99.105:2379"
  7. ETCD_DISCOVERY=http://192.168.99.103:2379/v2/keys/discovery/98a976dac265a218f1a1959eb8dde57f

如果启动后一直显示如下错误(参考: raft election):

  1. rafthttp: the clock difference against peer ?????? is too high [??????s > 1s]

简单的解决方法是通过ntp:

  1. [root@localhost etcd]yum install ntp -y
  2. [root@localhost etcd]# systemctl enable ntpd
  3. Created symlink from /etc/systemd/system/multi-user.target.wants/ntpd.service to /usr/lib/systemd/system/ntpd.service.
  4. [root@localhost etcd]# systemctl start ntpd

flannel

set一个路径给flannel用:

  1. etcdctl set /coreos.com/network/config '{ "Network": "10.1.0.0/16" }'

systemctl start flanneld方式启动时,如果出现以下错误

  1. network.go:53] Failed to retrieve network config: 100: Key not found (/coreos.net) [9]

注意/etc/sysconfig/flanneld中的内容,FLANNEL_ETCD_PREFIX很可能是/atomic.io/network,将其改为/coreos.com/network
或者也可以通过-etcd-prefix指定。

启动成功后,查看subnet:

  1. [root@localhost etcd]# etcdctl ls /coreos.com/network/subnets
  2. /coreos.com/network/subnets/10.1.90.0-24
  3. /coreos.com/network/subnets/10.1.30.0-24
  4. /coreos.com/network/subnets/10.1.18.0-24

flannel启动成功后会生成/run/flannel/docker,内容如下:

  1. DOCKER_OPT_BIP="--bip=10.1.30.1/24"
  2. DOCKER_OPT_IPMASQ="--ip-masq=true"
  3. DOCKER_OPT_MTU="--mtu=1450"
  4. DOCKER_NETWORK_OPTIONS=" --bip=10.1.30.1/24 --ip-masq=true --mtu=1450 "

用以下方式启动docker:

  1. [root@localhost etcd]# source /run/flannel/docker
  2. [root@localhost etcd]# docker daemon ${DOCKER_NETWORK_OPTIONS} >> /dev/null 2>&1 &

/run/flannel/docker是怎么来的?

参考flanneld的两个启动参数,-subnet-dir-subnet-file

在genesis进入容器看看效果:

  1. [root@localhost etcd]# docker run -it busybox
  2. / # ifconfig
  3. eth0 Link encap:Ethernet HWaddr 02:42:0A:01:5A:02
  4. inet addr:10.1.90.2 Bcast:0.0.0.0 Mask:255.255.255.0
  5. inet6 addr: fe80::42:aff:fe01:5a02/64 Scope:Link
  6. UP BROADCAST RUNNING MULTICAST MTU:1450 Metric:1
  7. RX packets:6 errors:0 dropped:0 overruns:0 frame:0
  8. TX packets:6 errors:0 dropped:0 overruns:0 carrier:0
  9. collisions:0 txqueuelen:0
  10. RX bytes:508 (508.0 B) TX bytes:508 (508.0 B)
  11. lo Link encap:Local Loopback
  12. inet addr:127.0.0.1 Mask:255.0.0.0
  13. inet6 addr: ::1/128 Scope:Host
  14. UP LOOPBACK RUNNING MTU:65536 Metric:1
  15. RX packets:0 errors:0 dropped:0 overruns:0 frame:0
  16. TX packets:0 errors:0 dropped:0 overruns:0 carrier:0
  17. collisions:0 txqueuelen:1
  18. RX bytes:0 (0.0 B) TX bytes:0 (0.0 B)

在exodus也做类似操作,在exodus中ping一下10.1.90.2,发现是通的。
并在各自容器中也ping一下,检查是否跨主机互通。

Docker - 用Flannel跨主机的更多相关文章

  1. Docker容器的跨主机连接

    Docker容器的跨主机连接 Docker容器的跨主机连接 使用网桥实现跨主机容器连接 网络拓扑 网络连接使用的是Bridge 操作 修改/etc/network/interfaces文件,分配静态I ...

  2. Docker学习(15) Docker容器的跨主机连接

    Docker容器的跨主机连接 Docker使用网桥跨主机容器连接 Docker使用Open cSwitch实现跨主机容器连接 Docker使用weave实现跨主机容器连接

  3. Docker系列04—跨主机网络方案(overlay/weave)

    在前面详细讲解了几种网络模式:none,host,bridge,container.他们解决了单个主机间的容器的通信问题,并不能实现多个主机容器之间的通信. 跨主机网络方案包括两大类: 1,docke ...

  4. 利用虚拟网桥实现Docker容器的跨主机访问

    最近在研究Docker,Docker的网络配置是比较令人头疼的部分,尤其是跨主机的容器间通信,很多解决方案都比较复杂,这里,我只用虚拟网桥来实现Docker的跨主机访问,分享出来,希望对Docker学 ...

  5. Docker 容器的跨主机连接

    使用网桥实现跨主枳容器连接 不推荐 使用OpenvSwitch实现跨主机容器连接 OpenvSwitch: OpenvSwitch是一个高质量的.多层虚拟交换枳,使用开源Apache2.0许可协议,由 ...

  6. docker swarm模式跨主机连接

    一.前言 当我们开发好微服务之后,考虑到灵活快速持续部署的需要,通常会考虑将其Docker镜像化并在Docker环境下运行.由于微服务个数通常会较多,把所有微服务部署在一台docker主机上是不现实的 ...

  7. docker容器间跨主机通信

    http://jnzg905.iteye.com/blog/2269583 https://blog.csdn.net/pingpangbing0902/article/details/7823889 ...

  8. Docker容器跨主机通信

    默认情况下Docker容器需要跨主机通信两个主机节点都需要在同一个网段下,这时只要两个Docker容器的宿主机能相互通信并且该容器使用net网络模式,改实现方式为网桥模式通信: 除此之外我们还可以通过 ...

  9. docker 跨主机网络:overlay 简介

    简介 docker 在早前的时候没有考虑跨主机的容器通信,这个特性直到 docker 1.9 才出现.在此之前,如果希望位于不同主机的容器能够通信,一般有几种方法: 使用端口映射:直接把容器的服务端口 ...

随机推荐

  1. C++ Builder多线程编程技术经验谈(转)

    源:C++ Builder多线程编程技术经验谈 线程之可行性   在很多情况下,可能需要为程序创建线程.这里给出其中一些可能性: (1)如果创建的是一个多文档接口(Multiple Document ...

  2. UWSGITOP-----监控uwsgi 性能

    启动 uwsgi -x etc/bfdds_cookiemapping_conf.xml --stats /tmp/stats.socket 查看 uwsgitop /tmp/stats.socket ...

  3. linux权限---【600,644,700,755,711,666,777】 - - 博客频道 - CSDN.NET

    body { font-family: "Microsoft YaHei UI","Microsoft YaHei",SimSun,"Segoe UI ...

  4. Mysql update语句赋值嵌套与在表列中数据后面增加数据

    1.Mysql update语句赋值嵌套select  点击(此处)折叠或打开 update a set col=(select col from a where id='5') where id&g ...

  5. 如何获取app的素材,做出一个高仿的app

    第一步:在iTunes中搜索你想要的app,然后点击下载: 下载完成之后右键点击:在Finder中显示 在finder中右键用"归档工具打开" 会显示如下内容: "显示包 ...

  6. 手机访问pc网站,自动跳转到手机网站

    <script type='text/javascript'> var browser = { versions: function () { var u = navigator.user ...

  7. /etc/profile文件

    导读:Linux /etc/profile文件的改变会涉及到系统的环境,也就是有关Linux环境变量的东西,学习Linux要了解Linux profile文件的相关原理,这里对则以文件进行具体分析.这 ...

  8. Knockout 系列

    由于近期要做的项目要兼容到IE6,原来的angular框架已经不能满足现在的兼容性要求. 解决方案: 1. 放弃框架,改为库 2. UI库采用 Knockout,css 3. css库 采用 boot ...

  9. tp框架里的 删改

    //显示主页面 <table width="> <tr> <td>代号</td> <td>名称</td> <td ...

  10. LPC1788 nand驱动

    Lpc 1788自带有emc接口用于驱动nandflash,norflash,sdram设备,对于nandflash驱动因为配置简单,时序也简单 首先,针对nandflash而言应当在系统中有三个地址 ...