一、实验环境

1.准备3个CentOS7 mini版本的虚拟机,每个主机3个网卡。如图:

  图中OVS-1、OVS-2、OVS-3分别为三台CentOS7 mini版虚拟机,分别配备3个虚拟网卡。如图中编号所示:

  网卡1(eno16777736):作为管理网,桥接到办公网络。

  网卡2(eno33554960):VXLAN VTEP互联的L3网络。IP段为10.10.10.0/24

  网卡3(eno50332184):用于连接测试用虚拟机,也使用Windows网桥连接。

2.准备好虚拟机后,更新每台虚拟机yum源。

yum install -y wget

wget -O /etc/yum.repos.d/CentOS-Base.repo http://mirrors.aliyun.com/repo/Centos-7.repo

yum clean all;yum makecache;yum -y update;

yum install net-tools -y

3.按照安装过程安装OVS。

4.三台OVS主机上分别创建br

  

#添加一个br

ovs-vsctl add-br br0

#分别给br0添加一个IP地址,用于VXLAN的测试

ifconfig br0 192.168.100.11 up  #OVS-2和OVS-3上分别设置22和33

二、实验过程

1.添加VTEP

  OVS-1:ovs-vsctl add-port br0 vx12 -- set interface vx12 type=vxlan options:remote_ip=10.10.10.22

  OVS-1:ovs-vsctl add-port br0 vx13 -- set interface vx13 type=vxlan options:remote_ip=10.10.10.33

  OVS-2:ovs-vsctl add-port br0 vx21 -- set interface vx21 type=vxlan options:remote_ip=10.10.10.11

  OVS-3:ovs-vsctl add-port br0 vx31 -- set interface vx31 type=vxlan options:remote_ip=10.10.10.11

  形成下面拓扑:

  

  图中,OVS-1中的Br0上创建了两个VTEP,这两个VTEP的remote_ip分别是10.10.10.22和10.10.10.33。

  同样的,OVS-2中创建一个Remote_IP为10.10.10.11。OVS-3中也创建一个Remote_IP为10.10.10.11。

  这样就创建了两条VXLAN隧道,默认VNI为0。

  此时,测试VXLAN是否能够ping通:

[root@OVS- ~]# ping 192.168.100.22
PING 192.168.100.22 (192.168.100.22) () bytes of data.
bytes from 192.168.100.22: icmp_seq= ttl= time=1.16 ms
bytes from 192.168.100.22: icmp_seq= ttl= time=1.30 ms
[root@OVS- ~]# ping 192.168.100.33
PING 192.168.100.33 (192.168.100.33) () bytes of data.
bytes from 192.168.100.33: icmp_seq= ttl= time=1.43 ms
bytes from 192.168.100.33: icmp_seq= ttl= time=1.51 ms
[root@OVS- ~]# ping 192.168.100.11
PING 192.168.100.11 (192.168.100.11) () bytes of data.
bytes from 192.168.100.11: icmp_seq= ttl= time=1.28 ms
bytes from 192.168.100.11: icmp_seq= ttl= time=1.32 ms
[root@OVS- ~]# ping 192.168.100.11
PING 192.168.100.11 (192.168.100.11) () bytes of data.
bytes from 192.168.100.11: icmp_seq= ttl= time=1.28 ms
bytes from 192.168.100.11: icmp_seq= ttl= time=1.59 ms

  说明,上述拓扑图中VXLAN是成功的。

3.使用option:key=5000可以指定每个隧道的VNI:

  例如:

  OVS-1:ovs-vsctl add-port br0 vx12 -- set interface vx12 type=vxlan options:remote_ip=10.10.10.22 option:key=5000

  OVS-1:ovs-vsctl add-port br0 vx13 -- set interface vx13 type=vxlan options:remote_ip=10.10.10.33 option:key=5001

  OVS-2:ovs-vsctl add-port br0 vx21 -- set interface vx21 type=vxlan options:remote_ip=10.10.10.11 option:key=5000

  OVS-3:ovs-vsctl add-port br0 vx31 -- set interface vx31 type=vxlan options:remote_ip=10.10.10.11 option:key=5001

  这样,拓扑中的两条隧道的VNI就不同了:

  此时,再次测试VXLAN是否能够ping通:

[root@OVS- ~]# ping 192.168.100.22
PING 192.168.100.22 (192.168.100.22) () bytes of data.
bytes from 192.168.100.22: icmp_seq= ttl= time=1.36 ms
bytes from 192.168.100.22: icmp_seq= ttl= time=0.986 ms

  同样,在这种情况下(VNI不同),通讯也是OK的。

  从这里,得出结论,每个VXLAN隧道是独立工作的。由于三台虚拟机上的Br0未划分VLAN网段,所以相当于三个Br0通过VXLAN隧道组成了一个L2网络。

4.云平台中使用VXLAN隔离租户原理

  在云平台中如何使用VXLAN来隔离租户:

  当在云平台中,例如Openstack中选择使用VXLAN作为网络模式。那么意味着,每个租户使用一个VNI来进行隔离,一共可以支持成百上千万个租户。

  

  上图中:

  G、H为两个VTEP,形成VXLAN隧道,两端IP为10.0.100.88和10.0.100.77。

  br-tun和br-int一般载体是OVS,供多租户共享,每个租户的数据包在G和H处进行封装,使用不同的VNI隔离。

  qbr-xxx是虚拟机独享的,载体是linux bridge。因为OVS无法支持基于iptables规则的安全组功能,所以只能使用Linux bridge来实现安全组功能。

 报文出的过程:

  1.报文从VM1-1的A端口发出,是Untag报文。

  2.报文从B口进入qbr-xxx,再从C端口离开qbr-xxx,也是Untag报文。

  3.报文从D端口进入br-int,在D端口,报文被打上标签,VLAN ID=10。

  4.报文从E端口离开br-int,此时报文VID=10。

  5.报文从F端口进入br-tun,此时报文VID=10。

  6.报文从G端口离开Host,在G端口,报文被再次封装为VXLAN报文,外层VID=5000。

OVS实现VXLAN隔离的更多相关文章

  1. 【Network】OVS、VXLAN/GRE、OVN等 实现 Docker/Kubernetes 网络的多租户隔离

    多租户隔离 DragonFlow与OVN | SDNLAB | 专注网络创新技术 Neutron社区每周记(6.25~7.6)| OVS将加入Linux基金会?OVN或抛弃ovsdb? | Unite ...

  2. [原] 利用 OVS 建立 VxLAN 虚拟网络实验

    OVS 配置 VxLAN HOST A ------------------------------------------ | zh-veth0(10.1.1.1) VM A | | ---|--- ...

  3. OpenStack OVS GRE/VXLAN

    https://www.jianshu.com/p/0b52de73a4b3 OpenStack OVS GRE/VXLAN网络 学习或者使用OpenStack普遍有这样的现象:50%的时间花费在了网 ...

  4. OVS DPDK VXLAN隧道处理

    原文链接: OVS DPDK VXLAN隧道处理

  5. [转载]OpenStack OVS GRE/VXLAN网络

      学习或者使用OpenStack普遍有这样的现象:50%的时间花费在了网络部分:30%的时间花费在了存储方面:20%的时间花费在了计算方面.OpenStack网络是不得不逾越的鸿沟,接下来我们一起尝 ...

  6. 【Network】OVS VXLAN/GRE 实践

    参考资料: OVS/VXLAN/GRE参考 ovs vxlan IP overray_百度搜索 OVS操作总结-Neutron-about云开发 OpenStack OVS GRE/VXLAN网络_z ...

  7. OpenvSwitch系列之八 vxlan隧道

    Open vSwitch系列之一 Open vSwitch诞生 Open vSwitch系列之二 安装指定版本ovs Open vSwitch系列之三 ovs-vsctl命令使用 Open vSwit ...

  8. Neutron 理解(14):Neutron ML2 + Linux bridge + VxLAN 组网

    学习 Neutron 系列文章: (1)Neutron 所实现的虚拟化网络 (2)Neutron OpenvSwitch + VLAN 虚拟网络 (3)Neutron OpenvSwitch + GR ...

  9. Namespace:Openstack的网络实现

    前言:众所周知在linux系统中PID.IPC.Network等都是全局性的资源,不论什么的改动和删减都会对整个系统造成影响.这也是为什么kvm之类的虚拟化技术须要模拟一个完毕主机系统的原因. 可是. ...

随机推荐

  1. HDU 4862 Jump(更多的联合培训学校1)(最小费用最大流)

    职务地址:pid=4862">HDU4862 最小费用流做的还是太少. 建图想不出来. . . 直接引用官方题解的话吧... 最小K路径覆盖的模型.用费用流或者KM算法解决,构造二部图 ...

  2. Cache memory power reduction techniques

    Methods and apparatus to provide for power consumption reduction in memories (such as cache memories ...

  3. BS学习概述

    从最初的牛腩新闻公布系统,到如今的JS,回想一下,自己的BS也算是学了大半,可是有时候想起来还是总是有一种不踏实的感觉,一是由于从开学到如今赶上了三级考试,自考.软考,导致BS学习时间被大大压缩了,代 ...

  4. Fedora15下搭建QT开发环境及编译QT(提前一键安装完,qt编译所有必需库 yum install gcc-c++ libXtst-devel freetype freetype-devel fontconfig-devel libXrender-devel )

    看了不少linux上编译qt的文章,实际上直接通过yum 安装qt是最方便的,请参考<yum安装qt> 不过初步接触fedora,为了了解一下如何在linux上编译.安装开源代码,所以必须 ...

  5. HDU 2686 Matrix 3376 Matrix Again(费用流)

    HDU 2686 Matrix 题目链接 3376 Matrix Again 题目链接 题意:这两题是一样的,仅仅是数据范围不一样,都是一个矩阵,从左上角走到右下角在从右下角走到左上角能得到最大价值 ...

  6. NPM镜像设置方法!

    使用npm安装一些包失败了的看过来(npm国内镜像介绍) 发布于 2012-4-26 04:19 最后一次编辑是 2013-12-11 23:21 这个也是网上搜的,亲自试过,非常好用! 镜像使用方法 ...

  7. WPF DataGrid自动生成列

    <Window x:Class="DataGridExam.MainWindow"        xmlns="http://schemas.microsoft.c ...

  8. linux服务脚本编写

    1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 3 ...

  9. AndroidStudio下的依赖管理

    在开发中用第三方库是很常见的事,如何在AndroidStudio下管理这些依赖呢?这就是这篇文章的目的. 目录 Maven/Ivy仓库依赖 Module依赖 aar文件依赖 jar文件依赖 例子完整代 ...

  10. oracle延迟块清除

    oracle在执行一些DML操作时,会在block上有活动事务的标志,如果一个事务commit后,由于某些block在commit之前已经写回datafile, 或者事务影响到的block数过多,则c ...