本文为minxihou的翻译文章,转载请注明出处Bob Hou: http://blog.csdn.net/minxihou

JmilkFan:minxihou的技术博文方向是 算法&Openstack自动化 ,写得很好,值得推荐。 : )

目录

译者在自动化部署的时候遇到了很多问题,这个时候不得不求向devstack官档。所以翻译出来以备以后查询。翻译中很多不足之处还望指教。写这个的老外用词有点抽象和狂野….

本文为博主翻译文章,转载请注明出处Bob Hou: http://blog.csdn.net/minxihou

本指南将会引导你如何配置openstack网络节点,网络节点会使用到ML2插件和OpenvSwitch机制。

1 单网卡的网络节点配置

在有些开发者实验环境中,主机有且只有一个可用的网卡可用的情况。这种情况下物理网卡加入到Open vSwitch中,然后IP地址配在网桥中。这样这个接口充当着三个角色,为自己网络节点服务传输数据,为OpenStack API传输数据,为管理节点传输数据。

警告:当配置单网卡模式的网络节点时,有可能会出现一个临时故障,有可能你的IP地址从你的机器的物理网卡中移除,然后配置在了OVS网桥上。如果你从其他机器用SSH链接到这台机器,可能有一定的风险导致你的SSH会话session中断(因为的arp缓存失效),这样的话将可能中断stack.sh脚本的运行,使整个部署处于一个未完成的状态。为了解决这种情况可以为stack.sh单独的开一个session这样能让stack.sh脚本继续运行。

1.1 物理网卡设置

在大多数使用Devstack部署单网络接口的情况下,网卡一般有自己的路由用于连接外部网络和DHCP服务器。因为网络节点开放了一个外网连接端口,其他想要连接到网络节点的机器(例如想做调试)可以通过这个共享的外网子网段来连接到neutron。在local.conf配置文件中对这个外网设定了一个合理的MTU值,该值为1500(MTU Maximun Transmission Unit: 最大传输单元,一般设置默认值也就是1500)。下面给出了实验的网络拓扑图:

1.2 Devstack配置

以下是对主机名为devstack-1完整的local.conf配置文件。配置文件会运行所有的API和服务,也提供虚拟化服务用于创建实例。

  1. [[local|localrc]]
  2. HOST_IP=172.18.161.6
  3. SERVICE_HOST=172.18.161.6
  4. MYSQL_HOST=172.18.161.6
  5. RABBIT_HOST=172.18.161.6
  6. GLANCE_HOSTPORT=172.18.161.6:9292
  7. ADMIN_PASSWORD=secret
  8. DATABASE_PASSWORD=secret
  9. RABBIT_PASSWORD=secret
  10. SERVICE_PASSWORD=secret
  11. # Do not use Nova-Network
  12. disable_service n-net
  13. # Enable Neutron
  14. ENABLED_SERVICES+=,q-svc,q-dhcp,q-meta,q-agt,q-l3
  15. ## Neutron options
  16. Q_USE_SECGROUP=True
  17. FLOATING_RANGE="172.18.161.0/24"
  18. FIXED_RANGE="10.0.0.0/24"
  19. Q_FLOATING_ALLOCATION_POOL=start=172.18.161.250,end=172.18.161.254
  20. PUBLIC_NETWORK_GATEWAY="172.18.161.1"
  21. PUBLIC_INTERFACE=eth0
  22. # Open vSwitch provider networking configuration
  23. Q_USE_PROVIDERNET_FOR_PUBLIC=True
  24. OVS_PHYSICAL_BRIDGE=br-ex
  25. PUBLIC_BRIDGE=br-ex
  26. OVS_BRIDGE_MAPPINGS=public:br-ex

1.3 多计算节点

我们假设你按照以上的步骤部署完了第一个节点之后你想做多节点测试和多节点之间的网络。

1.3.1 物理网络设置



当我们用Devstack安装部署完Neutron节点之后(从上配置文件可以看出keystone和glance也做了配置),客户在devstack-2上创建实例(devstack-2作为计算机节点)的时候,L3代理服务会把devstack1和devstack2的通讯(nova与keystone节点的通讯访问)压缩封装在VXLAN隧道进行传输。

  1. stack@devstack-2:~/devstack$ sudo ovs-vsctl show
  2. 8992d965-0ba0-42fd-90e9-20ecc528bc29
  3. Bridge br-int
  4. fail_mode: secure
  5. Port br-int
  6. Interface br-int
  7. type: internal
  8. Port patch-tun
  9. Interface patch-tun
  10. type: patch
  11. options: {peer=patch-int}
  12. Bridge br-tun
  13. fail_mode: secure
  14. Port "vxlan-c0a801f6"
  15. Interface "vxlan-c0a801f6"
  16. type: vxlan
  17. options: {df_default="true", in_key=flow, local_ip="172.18.161.7", out_key=flow, remote_ip="172.18.161.6"}
  18. Port patch-int
  19. Interface patch-int
  20. type: patch
  21. options: {peer=patch-tun}
  22. Port br-tun
  23. Interface br-tun
  24. type: internal
  25. ovs_version: "2.0.2"

L3代理运行在控制节点devstack-1上,Open vSwitch同样配置在控制节点上。Open vSwitch会把从网络节点发过来的包解封装,然后转发到eth0链接的br-ex网桥上。

  1. stack@devstack-1:~/devstack$ sudo ovs-vsctl show
  2. 422adeea-48d1-4a1f-98b1-8e7239077964
  3. Bridge br-tun
  4. fail_mode: secure
  5. Port br-tun
  6. Interface br-tun
  7. type: internal
  8. Port patch-int
  9. Interface patch-int
  10. type: patch
  11. options: {peer=patch-tun}
  12. Port "vxlan-c0a801d8"
  13. Interface "vxlan-c0a801d8"
  14. type: vxlan
  15. options: {df_default="true", in_key=flow, local_ip="172.18.161.6", out_key=flow, remote_ip="172.18.161.7"}
  16. Bridge br-ex
  17. Port phy-br-ex
  18. Interface phy-br-ex
  19. type: patch
  20. options: {peer=int-br-ex}
  21. Port "eth0"
  22. Interface "eth0"
  23. Port br-ex
  24. Interface br-ex
  25. type: internal
  26. Bridge br-int
  27. fail_mode: secure
  28. Port "tapce66332d-ea"
  29. tag: 1
  30. Interface "tapce66332d-ea"
  31. type: internal
  32. Port "qg-65e5a4b9-15"
  33. tag: 2
  34. Interface "qg-65e5a4b9-15"
  35. type: internal
  36. Port "qr-33e5e471-88"
  37. tag: 1
  38. Interface "qr-33e5e471-88"
  39. type: internal
  40. Port "qr-acbe9951-70"
  41. tag: 1
  42. Interface "qr-acbe9951-70"
  43. type: internal
  44. Port br-int
  45. Interface br-int
  46. type: internal
  47. Port patch-tun
  48. Interface patch-tun
  49. type: patch
  50. options: {peer=patch-int}
  51. Port int-br-ex
  52. Interface int-br-ex
  53. type: patch
  54. options: {peer=phy-br-ex}
  55. ovs_version: "2.0.2"

br-int是Open vSwitch驱动机制创建的一个网桥。br-int可以看做是一个集成网桥,在这个网桥内创建对实例的各个端口,也可以在这个网桥中创建虚拟交换机。br-ex是一个OVS网桥用于链接物理网卡接口(例如eth0)。各个节点向控制节点发送的消息可以通过这个br-ex来接收,然后br-ex会把包转发到devstack-1上各自服务的网络端口上。br-ex同样接收外网ip向devstack-1上发送的包。br-tun隧道是用来链接openstack的计算节点的,这个网桥隧道主要用于计算节点和网络节点间的通讯,使用的是VXLAN协议。计算节点上的实例与网络节点链接同样使用这个br-tun网桥隧道(例如devstack-1和devstack-2的通讯)。

译者注:

什么是网桥:网桥工作在数据链路层,将两个局域网(LAN)连起来,根据MAC地址(物理地址)来转发,可以看作一个“低层的路由器”(路由器工作在网络层,根据网路地址比如IP地址进行转发)。它可以有效地链接两个LAN,使本地通信限制在本网段内,并转发相应的信号至另一网段,网桥通常用于链接数量不多的,同一类型的网段。

什么是VXLAN介绍:

VXLAN全称Virtual eXtensible LAN,是一种覆盖网络技术或隧道技术。VXLAN将虚拟机发出的数据包封装在UDP中,并使用物理网络的IP/MAC作为outer-header进行封装,然后在物理IP网上传输,到达目的地后由隧道终结点解封并将数据发送给目标虚拟机。

什么是隧道技术:

隧道技术(Tunneling)是一种通过使用互联网络的基础设施在网络之间传递数据的方式。使用隧道传递的数据(或负载)可以是不同协议的数据帧或包。隧道协议将其它协议的数据帧或包重新封装然后通过隧道发送。新的帧头提供路由信息,以便通过互联网传递被封装的负载数据。

这里所说的隧道类似于点到点的连接,这种方式能够使来自许多信息源的网络业务在同一个基础设施中通过不同的隧道进行传输。隧道技术使用点对点通信协议代替了交换连接,通过路由网络来连接数据地址。隧道技术允许授权移动用户或已授权的用户在任何时间、任何地点访问企业网络。

通过隧道的建立,可实现:

* 将数据流强制送到特定的地址

* 隐藏私有的网络地址

* 在IP网上传递非IP数据包

* 提供数据安全支持。

如果难以理解说什么的看以下拓扑图:

1.4 Devstack计算节点配置

使用最小化配置文件来配置主机devstack-2。

  1. [[local|localrc]]
  2. HOST_IP=172.18.161.7
  3. SERVICE_HOST=172.18.161.6
  4. MYSQL_HOST=172.18.161.6
  5. RABBIT_HOST=172.18.161.6
  6. GLANCE_HOSTPORT=172.18.161.6:9292
  7. ADMIN_PASSWORD=secret
  8. MYSQL_PASSWORD=secret
  9. RABBIT_PASSWORD=secret
  10. SERVICE_PASSWORD=secret
  11. ## Neutron options
  12. PUBLIC_INTERFACE=eth0
  13. ENABLED_SERVICES=n-cpu,rabbit,q-agt

传输流程:计算节点向网络节点发起任何数据链接时,先由计算节点eth0网卡发出通过计算节点的NAT转换指向了neutron的l3代理,之后由l3代理提保证算节点和网络节点通讯。

2 配置Open vSwith 和 networks

译者注:Open vSwitch为开放虚拟交换标准,虚拟交换就是利用虚拟平台,通过软件的方式形成交换机部件。

在有些情况下需要使用neutron组件来提供网络的拓展服务,这样可以利用neutron来配置网络上的一个外部路由器,通过nova创建的实例可以连接到由neutron管理的外部路由器。

在有些实验环境中,物理网络的路由已经被预先配置了,openstack的开发人员仅仅只被给了一个vlan标签和一个IP地址段范围。这样的话通过devstack创建的虚拟机实例通过三层网络来连接到外网路由器。(译者认为这里是没有使用neutron的L3-agent,而是使用了nova-network使创建的实例与外网通讯),这种模式与neutron L3服务原理截然不同。

2.1 物理网络设置



在计算节点上,第一个网卡接口eth0是用来与openstack管理节点来通讯的,可以通过ssh使用root权限来登录该机器。

  1. stack@compute:~$ ifconfig eth0
  2. eth0 Link encap:Ethernet HWaddr bc:16:65:20:af:fc
  3. inet addr:10.0.0.3

eth1网卡是手动配置的在开机引导的时没有IP地址。如何配置网卡请参阅你所使用操作系统相对应技术文档。对于Ubuntu,网卡配置文件/etc/network/interfaces包含以下信息:

  1. auto eth1
  2. iface eth1 inet manual
  3. up ifconfig $IFACE 0.0.0.0 up
  4. down ifconfig $IFACE 0.0.0.0 down

第二个物理接口,eth1需要添加到br-ex网桥中用于实例虚机访问外部网络。

  1. stack@compute:~$ sudo ovs-vsctl add-br br-ex
  2. stack@compute:~$ sudo ovs-vsctl add-port br-ex eth1
  3. stack@compute:~$ sudo ovs-vsctl show
  4. 9a25c837-32ab-45f6-b9f2-1dd888abcf0f
  5. Bridge br-ex
  6. Port br-ex
  7. Interface br-ex
  8. type: internal
  9. Port phy-br-ex
  10. Interface phy-br-ex
  11. type: patch
  12. options: {peer=int-br-ex}
  13. Port "eth1"
  14. Interface "eth1"

2.2 配置服务

控制节点

在这个例子中,控制节点将会运行绝大部分openstack的API和管理服务(keystone,glance,nova,neutron).

计算节点

在这个例子中,计算节点负责运行实例,同时运行neutron-openvswitch-agent服务来提供网络访问,运行nova-cpmpute服务提供计算服务。

2.3 Devstack配置

下面的代码片是使用devstack配置controller节点:

  1. HOST_IP=10.0.0.2
  2. SERVICE_HOST=10.0.0.2
  3. MYSQL_HOST=10.0.0.2
  4. RABBIT_HOST=10.0.0.2
  5. GLANCE_HOSTPORT=10.0.0.2:9292
  6. PUBLIC_INTERFACE=eth1
  7. ADMIN_PASSWORD=secret
  8. MYSQL_PASSWORD=secret
  9. RABBIT_PASSWORD=secret
  10. SERVICE_PASSWORD=secret
  11. ## Neutron options
  12. Q_USE_SECGROUP=True
  13. ENABLE_PROJECT_VLANS=True
  14. PROJECT_VLAN_RANGE=3001:4000
  15. PHYSICAL_NETWORK=default
  16. OVS_PHYSICAL_BRIDGE=br-ex
  17. Q_USE_PROVIDER_NETWORKING=True
  18. # Do not use Nova-Network
  19. disable_service n-net
  20. # Neutron
  21. ENABLED_SERVICES+=,q-svc,q-dhcp,q-meta,q-agt
  22. ## Neutron Networking options used to create Neutron Subnets
  23. FIXED_RANGE="203.0.113.0/24"
  24. NETWORK_GATEWAY=203.0.113.1
  25. PROVIDER_SUBNET_NAME="provider_net"
  26. PROVIDER_NETWORK_TYPE="vlan"
  27. SEGMENTATION_ID=2010

在这个配置参考中,我们定义FIXED_RANGE为一个IPV4的公网网段。对于特殊实例来说我们使用RFC5737中定义的特殊TEST-NET-3子网。在你设置你的devstack时,FIXED_RANGE配置的是你或者你组织分配给你的公网IP段,这样的话你可以通过外网来连接你的虚机实例。

通过devstack配置计算节点node1.

  1. HOST_IP=10.0.0.3
  2. SERVICE_HOST=10.0.0.2
  3. MYSQL_HOST=10.0.0.2
  4. RABBIT_HOST=10.0.0.2
  5. GLANCE_HOSTPORT=10.0.0.2:9292
  6. ADMIN_PASSWORD=secret
  7. MYSQL_PASSWORD=secret
  8. RABBIT_PASSWORD=secret
  9. SERVICE_PASSWORD=secret
  10. # Services that a compute node runs
  11. ENABLED_SERVICES=n-cpu,rabbit,q-agt
  12. ## Open vSwitch provider networking options
  13. PHYSICAL_NETWORK=default
  14. OVS_PHYSICAL_BRIDGE=br-ex
  15. PUBLIC_INTERFACE=eth1
  16. Q_USE_PROVIDER_NETWORKING=True

在配置node2节点的时候大部分配置项目都和node1一样除开HOST_IP需要改成10.0.0.4。

Devstack会配置提供网络选项(通过将Q_USE_PROVIDER_NETWORKING置成True)。Devstack会为OVS_PHYSICAL_BRIDGE配置项里定义的br-ex网桥自动加入你在PUBLIC_INTERFACE里定义的接口。

例如使用上面的配置,创建了一个网桥,网桥名为br-ex并由Open vSwitch管理。计算节点中第二个网卡接口eth1会加入到这个网桥为虚机提供网络访问。

3 注意事项

3.1 配置非标准MTU的物理网络

neutron规定的MTU值是默认Ethernet标准的1500bytes。

如果想要设置不同的MTU值可以在部署neutron节点时在local.conf配置文件的neutron小节中加入如下参数。如果你有网络设备支持超大帧,你同样可以按照如下方法将MTU值置成9000。

  1. [[post-config|/$Q_PLUGIN_CONF_FILE]]
  2. global_physnet_mtu = 9000

3.2 禁用除iptables之外的防火墙

如果加载使用了其他的防火墙devstack可能不能正常工作。可能会出现虚机实例可以通过ICMP来访问外部网络,但是实例与外部通讯的TCP和UDP的包将不会通过防火墙。这个问题的根本原因是其他的防火墙被应用并且适用了在了所有端口(意思就是全部deny掉了)。解决这种问题的方法是只保留iptables防火墙,以避免多防火墙设置冲突。

在Fedora操作系统中配置防火墙如下:(译者注:在RHEL和Centos 7以上版本需要关闭firewall,ebtables,ip6tables,开启iptables防火墙)

  1. sudo service iptables save
  2. sudo systemctl disable firewalld
  3. sudo systemctl enable iptables
  4. sudo systemctl stop firewalld
  5. sudo systemctl start iptables

在发行版的Linux操作系统中包含配置防火墙和禁用防火墙功能。注意,在Ubuntu操作系统中默认是不会开启ufw防火墙的。如果发现ufw防火墙是enabled状态需要将它禁用掉可以执行以下指令:

  1. sudo service iptables save
  2. sudo ufw disable

3.3 配置ML2拓展插件

拓展插件ML2的参数为Q_ML2_PLUGIN_EXT_DRIVERS,默认包括了端口安全。如果你想不使用任何拓展驱动(包括端口安全),那么可以在Q_ML2_PLUGIN_EXT_DRIVERS后面什么都不写。

3.4 使用自带网桥替代Open vSwitch

配置使用自带网桥的二层驱动非常直接了当。配置Linux系统自带网桥与配置Open vSwitch单网卡模式是非常类似的,只是在接口映射那有微小的不同。

  1. [[local|localrc]]
  2. HOST_IP=172.18.161.6
  3. SERVICE_HOST=172.18.161.6
  4. MYSQL_HOST=172.18.161.6
  5. RABBIT_HOST=172.18.161.6
  6. GLANCE_HOSTPORT=172.18.161.6:9292
  7. ADMIN_PASSWORD=secret
  8. DATABASE_PASSWORD=secret
  9. RABBIT_PASSWORD=secret
  10. SERVICE_PASSWORD=secret
  11. # Do not use Nova-Network
  12. disable_service n-net
  13. # Enable Neutron
  14. ENABLED_SERVICES+=,q-svc,q-dhcp,q-meta,q-agt,q-l3
  15. ## Neutron options
  16. Q_USE_SECGROUP=True
  17. FLOATING_RANGE="172.18.161.0/24"
  18. FIXED_RANGE="10.0.0.0/24"
  19. Q_FLOATING_ALLOCATION_POOL=start=172.18.161.250,end=172.18.161.254
  20. PUBLIC_NETWORK_GATEWAY="172.18.161.1"
  21. PUBLIC_INTERFACE=eth0
  22. Q_USE_PROVIDERNET_FOR_PUBLIC=True
  23. # Linuxbridge Settings
  24. Q_AGENT=linuxbridge
  25. LB_PHYSICAL_INTERFACE=eth0
  26. PUBLIC_PHYSICAL_NETWORK=default
  27. LB_INTERFACE_MAPPINGS=default:eth0

3.5 使用MacVTap来取代Open vSwitch

( 译者注: Macvtap是一个新的设备驱动程序,旨在简化虚拟化的桥接网络。它取代基于macvlan设备驱动模块的TUN / TAP和桥驱动器的组合。一个macvtap终点(endpoint)是一个字符设备,主要遵循的TUN/ TAP ioctl接口,可以直接使用KVM/qemu和其他支持TUN / TAP接口的虚拟机管理程序。终点(endpoint)扩展了现有的网络接口,较低的设备,在同一个以太网段上的,拥有自己的MAC地址。通常情况下,这是用来使双方的客户机和主机直接显示的主机连接到交换机上的。)

安全组现在不支持MacVTap代理。因为这样,devstack在计算节点上配置NoopFirewall驱动。

MacVTap代理不支持L3,dhcp和元数据代理。因为这样你可以选择如下的部署方案。

3.5.1 使用配置驱动,外部L3,dhcp来提供网络服务的单节点模型

如果L3和dhcp服务是由其他服务器提供的,或者你不想使用它们,那么以下情况适用这种配置:

  1. [[local|localrc]]
  2. HOST_IP=10.0.0.2
  3. SERVICE_HOST=10.0.0.2
  4. MYSQL_HOST=10.0.0.2
  5. RABBIT_HOST=10.0.0.2
  6. ADMIN_PASSWORD=secret
  7. MYSQL_PASSWORD=secret
  8. RABBIT_PASSWORD=secret
  9. SERVICE_PASSWORD=secret
  10. Q_ML2_PLUGIN_MECHANISM_DRIVERS=macvtap
  11. Q_USE_PROVIDER_NETWORKING=True
  12. #Enable Neutron services
  13. disable_service n-net
  14. enable_plugin neutron git://git.openstack.org/openstack/neutron
  15. ENABLED_SERVICES+=,q-agt,q-svc
  16. ## MacVTap agent options
  17. Q_AGENT=macvtap
  18. PHYSICAL_NETWORK=default
  19. FIXED_RANGE="203.0.113.0/24"
  20. NETWORK_GATEWAY=203.0.113.1
  21. PROVIDER_SUBNET_NAME="provider_net"
  22. PROVIDER_NETWORK_TYPE="vlan"
  23. SEGMENTATION_ID=2010
  24. [[post-config|/$Q_PLUGIN_CONF_FILE]]
  25. [macvtap]
  26. physical_interface_mappings = $PHYSICAL_NETWORK:eth1
  27. [[post-config|$NOVA_CONF]]
  28. force_config_drive = True

3.5.2 配置了MacVTap计算节点的多节点模式

这种情况适用于你想让openstack提供L3,dhcp和元数据服务。这些服务运行在网络节点上,控制节点上有相对应的网络服务来服务与之通讯,网络节点上还跑着其他L2代理(这个例子使用的是Open vSwitch)。网络节点需要配置VLAN租户网络。

对于OVS,配置与之前2.2中讲述的配置大致一致,只需要将下列配置项加入local.conf文件中,这样就能加载MacVTap驱动机制。

  1. [[local|localrc]]
  2. ...
  3. Q_ML2_PLUGIN_MECHANISM_DRIVERS=openvswitch,linuxbridge,macvtap
  4. ...

对于使用MacVTap的计算节点,用以后配置项来配置local.conf。

  1. HOST_IP=10.0.0.3
  2. SERVICE_HOST=10.0.0.2
  3. MYSQL_HOST=10.0.0.2
  4. RABBIT_HOST=10.0.0.2
  5. ADMIN_PASSWORD=secret
  6. MYSQL_PASSWORD=secret
  7. RABBIT_PASSWORD=secret
  8. SERVICE_PASSWORD=secret
  9. # Services that a compute node runs
  10. disable_all_services
  11. enable_plugin neutron git://git.openstack.org/openstack/neutron
  12. ENABLED_SERVICES+=n-cpu,q-agt
  13. ## MacVTap agent options
  14. Q_AGENT=macvtap
  15. PHYSICAL_NETWORK=default
  16. [[post-config|/$Q_PLUGIN_CONF_FILE]]
  17. [macvtap]
  18. physical_interface_mappings = $PHYSICAL_NETWORK:eth1

官方原文地址:

http://docs.openstack.org/developer/devstack/guides/neutron.html#ovs-provider-network-controller

使用Devstack部署neutron网络节点的更多相关文章

  1. openstack (5)-- 部署 Neutron 网络服务

    Neutron 概念: 传统的网络管理方式很大程度上依赖于管理员手工配置和维护各种网络硬件设备:而云环境下的网络已经变得非常复杂,特别是在多租户场景里,用户随时都可能需要创建.修改和删除网络,网络的连 ...

  2. OpenStack IceHouse 部署 - 5 - 网络节点部署

    Neutron网络服务(网络节点)     目录 [隐藏]  1 参考 2 前置工作 2.1 调整内核参数 3 安装 4 配置 4.1 keystone对接 4.2 rabbitmq对接 4.3 me ...

  3. Neutron网络学习

    学习 Neutron 系列文章: 转http://www.cnblogs.com/sammyliu/p/4622563.html (1)Neutron 所实现的网络虚拟化 (2)Neutron Ope ...

  4. Neutron网络性能测试与分析(一) CVR

    测试环境:网络节点运行在Intel(R) Xeon(R) CPU E5-2630 v3服务器上,网卡使用intel的万兆卡82599ES 测试仪使用本人基于dpdk编写的程序,基本上可以打满万兆卡,小 ...

  5. Openstack 网络服务 Neutron计算节点部署(十)

    Neutron计算节点部署 安装组件,安装的服务器是192.168.137.12 1.安装软件包 yum install -y openstack-neutron-linuxbridge ebtabl ...

  6. Openstack 网络服务 Neutron计算节点部署 (十一)

    一) Neutron计算节点部署 1.安装软件包 # yum install -y openstack-neutron-linuxbridge ebtables ipset 2.配置文件neutron ...

  7. OpenStack Havana 部署在Ubuntu 12.04 Server 【OVS+GRE】(二)——网络节点的安装

    序:OpenStack Havana 部署在Ubuntu 12.04 Server [OVS+GRE] 网络节点: 1.安装前更新系统 安装好ubuntu 12.04 Server 64bits后,进 ...

  8. CentOS7安装OpenStack(Rocky版)-06.安装Neutron网络服务(控制节点)

    上一章介绍了独立的nova计算节点的安装方法,本章分享openstack的网络服务neutron的安装配制方法 ------------------- 完美的分割线 ----------------- ...

  9. Openstack实践(1)部署使用实例及neutron网络

    版权声明:本文为博主原创文章,欢迎转载,转载请注明作者.原文超链接 ,博主地址:http://www.cnblogs.com/SuperXJ/ 如何快速部署使用openstack,使用kolla吧,o ...

随机推荐

  1. 线性dp——1197D

    一开始没有什么头绪,后来注意到m<=10,考虑是否可以用dp[i][j]表示第i位,前面跟了j个数的最大值 那么第i+1个数,直接和第i个数的[0,m]的m+1种状态去转移即可,如果是由0或m状 ...

  2. c go数据类型对应关系

    DataType C cgo sizeof--------------------+--------------------+------------------------------------- ...

  3. npm install 超时 国内 切换源; npm ERR! code ELIFECYCLE;

    install 超时 查看npm源地址 npm config get registry #http://registry.npmjs.org 为国外镜像地址 设置阿里云镜像 npm config se ...

  4. JAVA学习之Java程序开发初次体验

    Java环境搭建算完成了,那么接下来写个Java程序走一个 开发Java程序的简单流程 1.将Java代码编写到扩展名为.java的文件中2.通过javac命令对该Java文件进行编译(生成class ...

  5. TFS 中如何将项目加入已有的源代码管理器中?

    Visual Studio 的某解决方案已经加入 Team Foundation Server,现在再将已经存在的项目加入到解决方案中,可是签入时,并没有把新加入的项目签入,怎么办呢? 在团队资源管理 ...

  6. build protobuf to a static library

    use ar cd src ar -cvq libprotobuf.a *.o

  7. maven surefire入门

    一.maven常用命令: mvn compile mvn install mvn test mvn clean mvn dependency:resolve -X   #查看完整的debug信息!!! ...

  8. 【Stanford Machine Learning Open Course】学习笔记目录

    这里是斯坦福大学机器学习网络课程的学习笔记. 课程地址是:https://class.coursera.org/ml-2012-002/lecture/index 课程资料百度网盘分享链接:https ...

  9. 用mybatis进行模糊查询总是查不到结果!

    //IStudentDao.xml @Override public List<Student> selectStudentByName(String name) { SqlSession ...

  10. C# Winform Dev控件之TileControl

    tileControl 包含TileGroup TileGroup 包含 Tile Tile拖拽时代码 TilteControl的itemPress事件执行 或Tile的itemPress执行 Til ...