继上一篇博客CentOS7.4安装部署openstack [Liberty版] (一),本篇继续讲述后续部分的内容

一、添加块设备存储服务

1.服务简述:

  1. OpenStack块存储服务为实例提供块存储。存储的分配和消耗是由块存储驱动器,或者多后端配置的驱动器决定的。还有很多驱动程序可用:NAS/SANNFSISCSICeph等等。块存储API和调度程序服务通常运行在控制节点上。取决于所使用的驱动程序,卷服务可以运行在控制,计算节点或者独立的存储节点上。
  2. OpenStack块存储服务(cinder)为虚拟机添加持久的存储,块存储提供一个基础设施为了管理卷,以及和OpenStack计算服务交互,为实例提供卷。此服务也会激活管理卷的快照和卷类型的功能。
  3. 块存储服务通常包含下列组件:
  4. cinder-api
  5.   接受API请求,并将其路由到"cinder-volume"执行。
  6. cinder-volume
  7.   与块存储服务和例如"cinder-scheduler"的进程进行直接交互。它也可以与这些进程通过一个消息队列进行交互。"cinder-volume"服务响应送到块存储服务的读写请求来维持状态。它也可以和多种存储提供者在驱动架构下进行交互。
  8. cinder-scheduler守护进程
  9.   选择最优存储提供节点来创建卷。其与"nova-scheduler"组件类似。
  10. cinder-backup守护进程
  11.   "cinder-backup"服务提供任何种类备份卷到一个备份存储提供者。就像"cinder-volume"服务,它与多种存储提供者在驱动架构下进行交互。
  12. 消息队列
  13.   在块存储的进程之间路由信息。

2.部署需求:在安装和配置块存储服务之前,必须创建数据库、服务证书和API端点。

  1. [root@controller ~]#mysql -u root -p123456 #创建数据库及访问权限
  2. MariaDB [(none)]>GRANT ALL PRIVILEGES ON cinder.* TO 'cinder'@'localhost' IDENTIFIED BY '';
  3. MariaDB [(none)]>GRANT ALL PRIVILEGES ON cinder.* TO 'cinder'@'%' IDENTIFIED BY '';
  4. MariaDB [(none)]>\q
  5. [root@controller ~]#. admin-openrc
  6. [root@controller ~]# openstack user create --domain default --password-prompt cinder
  7. User Password: #密码为:
  8. Repeat User Password:
  9. [root@controller ~]#openstack role add --project service --user cinder admin #添加 admin 角色到 cinder 用户上,这个命令执行后没有输出。
  10. [root@controller ~]#openstack service create --name cinder --description "OpenStack Block Storage" volume #创建 cinder 和 cinderv2 服务实体,块设备存储服务要求两个服务实体。
  11. [root@controller ~]#openstack service create --name cinderv2 --description "OpenStack Block Storage" volumev2
  12. [root@controller ~]#openstack endpoint create --region RegionOne volume public http://controller:8776/v1/%\(tenant_id\)s #创建块设备存储服务的 API 入口点,块设备存储服务每个服务实体都需要端点。
  13. [root@controller ~]#openstack endpoint create --region RegionOne volume internal http://controller:8776/v1/%\(tenant_id\)s
  14. [root@controller ~]#openstack endpoint create --region RegionOne volume admin http://controller:8776/v1/%\(tenant_id\)s
  15. [root@controller ~]#openstack endpoint create --region RegionOne volumev2 public http://controller:8776/v2/%\(tenant_id\)s
  16. [root@controller ~]#openstack endpoint create --region RegionOne volumev2 internal http://controller:8776/v2/%\(tenant_id\)s
  17. [root@controller ~]#openstack endpoint create --region RegionOne volumev2 admin http://controller:8776/v2/%\(tenant_id\)s

3.服务安装

控制节点:

  1. [root@controller ~]#yum install -y openstack-cinder python-cinderclient
  2. [root@controller ~]# egrep -v "^$|^#" /etc/cinder/cinder.conf #编辑cinder.conf
  3. [DEFAULT]
  4. rpc_backend = rabbit #配置 RabbitMQ 消息队列访问
  5. auth_strategy = keystone #配置认证服务访问
  6. my_ip = 192.168.1.101 #配置 my_ip 来使用控制节点的管理接口的IP 地址
  7. verbose = True #启用详细日志
  8. [BRCD_FABRIC_EXAMPLE]
  9. [CISCO_FABRIC_EXAMPLE]
  10. [cors]
  11. [cors.subdomain]
  12. [database]
  13. connection = mysql://cinder:123456@controller/cinder #配置数据库访问
  14. [fc-zone-manager]
  15. [keymgr]
  16. [keystone_authtoken] #配置认证服务访问,在 [keystone_authtoken] 中注释或者删除其他选项。
  17. auth_uri = http://controller:5000
  18. auth_url = http://controller:35357
  19. auth_plugin = password
  20. project_domain_id = default
  21. user_domain_id = default
  22. project_name = service
  23. username = cinder
  24. password =
  25. [matchmaker_redis]
  26. [matchmaker_ring]
  27. [oslo_concurrency]
  28. lock_path = /var/lib/cinder/tmp #配置锁路径
  29. [oslo_messaging_amqp]
  30. [oslo_messaging_qpid]
  31. [oslo_messaging_rabbit] #配置 RabbitMQ 消息队列访问
  32. rabbit_host = controller
  33. rabbit_userid = openstack
  34. rabbit_password =
  35. [oslo_middleware]
  36. [oslo_policy]
  37. [oslo_reports]
  38. [profiler]
  39. [root@controller ~]#su -s /bin/sh -c "cinder-manage db sync" cinder #初始化块设备服务的数据库
  40. [root@controller ~]#[root@controller ~]# grep -A "\[cinder\]" /etc/nova/nova.conf #配置计算节点以使用块设备存储,编辑文件 /etc/nova/nova.conf 并添加如下内容
  41. [cinder]
  42. os_region_name = RegionOne
  43. [root@controller ~]# systemctl restart openstack-nova-api.service
  44. [root@controller ~]#systemctl enable openstack-cinder-api.service openstack-cinder-scheduler.service
  45. [root@controller ~]#systemctl start openstack-cinder-api.service openstack-cinder-scheduler.service

存储节点:

  1. [root@block1 ~]# yum install lvm2 -y
  2. [root@block1 ~]# systemctl enable lvm2-lvmetad.service
  3. [root@block1 ~]# systemctl start lvm2-lvmetad.service
  4. [root@block1 ~]#pvcreate /dev/sdb #创建LVM 物理卷 /dev/sdb
  5. Physical volume "/dev/sdb" successfully created
  6. [root@block1 ~]#vgcreate cinder-volumes /dev/sdb #创建 LVM 卷组 cinder-volumes,块存储服务会在这个卷组中创建逻辑卷
  7. Volume group "cinder-volumes" successfully created
  8. [root@block1 ~]# vim /etc/lvm/lvm.conf #编辑etc/lvm/lvm.conf文件,在devices部分,添加一个过滤器,只接受/dev/sdb设备,拒绝其他所有设备
  9. devices {
  10. filter = [ "a/sda/", "a/sdb/", "r/.*/"] #如果存储节点在操作系统磁盘上也使用了 LVM,也需要添加相关的设备到过滤器中
  11. [root@block1 ~]# yum install openstack-cinder targetcli python-oslo-policy -y
  12. [root@block1 ~]# systemctl enable openstack-cinder-volume.service target.service
  13. [root@block1 ~]# systemctl restart openstack-cinder-volume.service target.service
  14. [root@block1 ~]# egrep -v "^$|^#" /etc/cinder/cinder.conf
  15. [DEFAULT]
  16. rpc_backend = rabbit #配置 RabbitMQ 消息队列访问
  17. auth_strategy = keystone #配置认证服务访问
  18. my_ip = 192.168.1.103 #存储节点上的管理网络接口的IP 地址
  19. enabled_backends = lvm #启用 LVM 后端
  20. glance_host = controller #配置镜像服务的位置
  21. [BRCD_FABRIC_EXAMPLE]
  22. [CISCO_FABRIC_EXAMPLE]
  23. [cors]
  24. [cors.subdomain]
  25. [database]
  26. connection = mysql://cinder:123456@controller/cinder #配置数据库访问
  27. [fc-zone-manager]
  28. [keymgr]
  29. [keystone_authtoken] #配置认证服务访问,在 [keystone_authtoken] 中注释或者删除其他选项。
  30. auth_uri = http://controller:5000
  31. auth_url = http://controller:35357
  32. auth_plugin = password
  33. project_domain_id = default
  34. user_domain_id = default
  35. project_name = service
  36. username = cinder
  37. password =
  38. [matchmaker_redis]
  39. [matchmaker_ring]
  40. [oslo_concurrency]
  41. lock_path = /var/lib/cinder/tmp #配置锁路径
  42. [oslo_messaging_amqp]
  43. [oslo_messaging_qpid]
  44. [oslo_messaging_rabbit] #配置 RabbitMQ 消息队列访问
  45. rabbit_host = controller
  46. rabbit_userid = openstack
  47. rabbit_password =
  48. [oslo_middleware]
  49. [oslo_policy]
  50. [oslo_reports]
  51. [profiler]
  52. [lvm] #配置LVM后端以LVM驱动结束,卷组cinder-volumes,iSCSI 协议和正确的 iSCSI服务
  53. volume_driver = cinder.volume.drivers.lvm.LVMVolumeDriver
  54. volume_group = cinder-volumes
  55. iscsi_protocol = iscsi
  56. iscsi_helper = lioadm
  57. [root@block1 ~]# systemctl enable openstack-cinder-volume.service target.service
  58. [root@block1 ~]# systemctl start openstack-cinder-volume.service target.service

验证:

  1. [root@controller ~]#source admin-openrc.sh
  2. [root@controller ~]#cinder service-list #列出服务组件以验证是否每个进程都成功启动
  3. +------------------+------------+------+---------+-------+----------------------------+-----------------+
  4. | Binary | Host | Zone | Status | State | Updated_at | Disabled Reason |
  5. +------------------+------------+------+---------+-------+----------------------------+-----------------+
  6. | cinder-scheduler | controller | nova | enabled | up | --18T01::54.000000 | None |
  7. | cinder-volume | block1@lvm | nova | enabled | up | --18T01::57.000000 | None |
  8. +------------------+------------+------+---------+-------+----------------------------+-----------------+

二、添加对象存储服务

1.服务简述

  1. OpenStack对象存储服务(swift) 通过一系列: REST API 一起提供对象存储和恢复服务。在布署对象存储前,你的环境当中必须至少包括认证服务(keystone)。
  2. OpenStack对象存储是一个多租户的对象存储系统,它支持大规模扩展,可以以低成本来管理大型的非结构化数据,通过RESTful HTTP 应用程序接口。
  3.  
  4. 它包含下列组件:
  5. 代理服务器(swift-proxy-server)
  6. 接收OpenStack对象存储API和纯粹的HTTP请求以上传文件,更改元数据,以及创建容器。它可服务于在web浏览器下显示文件和容器列表。为了改进性能,代理服务可以使用可选的缓存,通常部署的是memcache
  7. 账户服务器 (swift-account-server)
  8.   管理由对象存储定义的账户。
  9. 容器服务器 (swift-container-server)
  10.   管理容器或文件夹的映射,对象存储内部。
  11. 对象服务器 (swift-object-server)
  12.   在存储节点上管理实际的对象,比如:文件。
  13. 各种定期进程
  14.   为了驾驭大型数据存储的任务,复制服务需要在集群内确保一致性和可用性,其他定期进程有审计,更新和reaper
  15. WSGI中间件
  16.   掌控认证,使用OpenStack认证服务。
  17. swift 客户端
  18.   用户可以通过此命令行客户端来向REST API提交命令,授权的用户角色可以是管理员用户,经销商用户,或者是swift用户。
  19. swift-init
  20.   初始化环链文件生成的脚本,将守护进程名称当作参数并提供命令。归档于http://docs.openstack.org/developer/swift/admin_guide.html#managing-services。
  21. swift-recon
  22.   一个被用于检索多种关于一个集群的度量和计量信息的命令行接口工具已被swift-recon中间件采集。
  23. swift-ring-builder
  24.   存储环链建立并重平衡实用程序。归档于http://docs.openstack.org/developer/swift/admin_guide.html#managing-the-rings。

2.部署需求:配置对象存储服务前,必须创建服务凭证和API端点。

  1. [root@controller ~]# source admin-openrc.sh
  2. [root@controller ~]# openstack user create --domain default --password-prompt swift #创建 swift用户
  3. User Password: #密码为:
  4. Repeat User Password:
  5. [root@controller ~]# openstack role add --project service --user swift admin #添加admin角色到 swift 用户
  6. [root@controller ~]#openstack service create --name swift --description "OpenStack Object Storage" object-store #创建 swift 服务实体
  7. [root@controller ~]#openstack endpoint create --region RegionOne object-store public http://controller:8080/v1/AUTH_%\(tenant_id\)s #创建对象存储服务API端点
  8. [root@controller ~]#openstack endpoint create --region RegionOne object-store internal http://controller:8080/v1/AUTH_%\(tenant_id\)s
  9. [root@controller ~]#openstack endpoint create --region RegionOne object-store admin http://controller:8080/v1

3.服务安装

控制节点:

  1. [root@controller ~]#yum install -y openstack-swift-proxy python-swiftclient python-keystoneclient python-keystonemiddleware memcached
  2. [root@controller ~]# vim /etc/swift/proxy-server.conf #配置文件在各发行版本中可能不同。你可能需要添加这些部分和选项而不是修改已经存在的部分和选项!!!
  3. [DEFAULT] #在[DEFAULT]部分,配置绑定端口,用户和配置目录
  4. bind_port =
  5. user = swift
  6. swift_dir = /etc/swift
  7. [pipeline:main] #在[pipeline:main]部分,启用合适的模块
  8. pipeline = catch_errors gatekeeper healthcheck proxy-logging cache container_sync bulk ratelimit authtoken keystoneauth container-quotas account-quotas slo dlo versioned_writes proxy-logging proxy-server
  9. [app:proxy-server] #在[app:proxy-server]部分,启用自动帐号创建
  10. use = egg:swift#proxy
  11. account_autocreate = true
  12. [filter:keystoneauth] #在[filter:keystoneauth]部分,配置操作员角色
  13. use = egg:swift#keystoneauth
  14. operator_roles = admin,user
  15. [filter:authtoken] #在[filter:authtoken]部分,配置认证服务访问
  16. paste.filter_factory = keystonemiddleware.auth_token:filter_factory
  17. auth_uri = http://controller:5000
  18. auth_url = http://controller:35357
  19. auth_plugin = password
  20. project_domain_id = default
  21. user_domain_id = default
  22. project_name = service
  23. username = swift
  24. password =
  25. delay_auth_decision = true
  26. [filter:cache] #在[filter:cache]部分,配置memcached位置
  27. use = egg:swift#memcache
  28. memcache_servers = 127.0.0.1:

存储节点:(在每个存储节点上执行这些步骤)

  1. [root@object1 ~]#yum install xfsprogs rsync -y #安装支持的工具包
  2. [root@object1 ~]#mkfs.xfs /dev/sdb #使用XFS格式化/dev/sdb和/dev/sdc设备
  3. [root@object1 ~]#mkfs.xfs /dev/sdc
  4. [root@object1 ~]#mkdir -p /srv/node/sdb #创建挂载点目录结构
  5. [root@object1 ~]#mkdir -p /srv/node/sdc
  6. [root@object1 ~]#tail - /etc/fstab #编辑"/etc/fstab"文件并包含以下内容
  7. /dev/sdb /srv/node/sdb xfs noatime,nodiratime,nobarrier,logbufs=
  8. /dev/sdc /srv/node/sdc xfs noatime,nodiratime,nobarrier,logbufs=
  9. [root@object1 ~]#mount /srv/node/sdb #挂载设备
  10. [root@object1 ~]#mount /srv/node/sdc
  11. [root@object1 ~]#cat /etc/rsyncd.conf #编辑"/etc/rsyncd.conf" 文件并包含以下内容
  12. uid = swift
  13. gid = swift
  14. log file = /var/log/rsyncd.log
  15. pid file = /var/run/rsyncd.pid
  16. address = 192.168.1.104 #本机的网络管理接口
  17.  
  18. [account]
  19. max connections =
  20. path = /srv/node/
  21. read only = false
  22. lock file = /var/lock/account.lock
  23.  
  24. [container]
  25. max connections =
  26. path = /srv/node/
  27. read only = false
  28. lock file = /var/lock/container.lock
  29.  
  30. [object]
  31. max connections =
  32. path = /srv/node/
  33. read only = false
  34. lock file = /var/lock/object.lock
  35. [root@object1 ~]#systemctl enable rsyncd.service
  36. [root@object1 ~]# systemctl start rsyncd.service
  37. [root@object1 ~]# yum install openstack-swift-account openstack-swift-container openstack-swift-object -y
  38. [root@object1 ~]#vim /etc/swift/account-server.conf
  39. [DEFAULT] #在[DEFAULT]`部分,配置绑定IP地址,绑定端口,用户,配置目录和挂载目录
  40. bind_ip = 192.168.1.104
  41. bind_port =
  42. user = swift
  43. swift_dir = /etc/swift
  44. devices = /srv/node
  45. mount_check = true
  46. [pipeline:main] #在[pipeline:main]部分,启用合适的模块
  47. pipeline = healthcheck recon account-server
  48. [filter:recon] #在[filter:recon]部分,配置recon (meters)缓存目录
  49. use = egg:swift#recon
  50. recon_cache_path = /var/cache/swift
  51. [root@object1 ~]# vim /etc/swift/container-server.conf
  52. [DEFAULT] #在[DEFAULT] 部分,配置绑定IP地址,绑定端口,用户,配置目录和挂载目录
  53. bind_ip = 192.168.1.104
  54. bind_port =
  55. user = swift
  56. swift_dir = /etc/swift
  57. devices = /srv/node
  58. mount_check = true
  59. [pipeline:main] #在[pipeline:main]部分,启用合适的模块
  60. pipeline = healthcheck recon container-server
  61. [filter:recon] #在[filter:recon]部分,配置recon (meters)缓存目录
  62. use = egg:swift#recon
  63. recon_cache_path = /var/cache/swift
  64. [root@object1 ~]#vim /etc/swift/object-server.conf
  65. [DEFAULT] #在[DEFAULT] 部分,配置绑定IP地址,绑定端口,用户,配置目录和挂载目录
  66. bind_ip = 192.168.1.104
  67. bind_port =
  68. user = swift
  69. swift_dir = /etc/swift
  70. devices = /srv/node
  71. mount_check = true
  72. [pipeline:main] #在[pipeline:main]部分,启用合适的模块
  73. pipeline = healthcheck recon object-server
  74. [filter:recon] #在[filter:recon]部分,配置recon (meters)缓存目录和锁文件目录
  75. use = egg:swift#recon
  76. recon_cache_path = /var/cache/swift
  77. recon_lock_path = /var/lock
  78. [root@object1 ~]#chown -R swift:swift /srv/node
  79. [root@object1 ~]#restorecon -R /srv/node
  80. [root@object1 ~]#mkdir -p /var/cache/swift
  81. [root@object1 ~]#chown -R root:swift /var/cache/swift

创建和分发初始化rings

控制节点:

  1. [root@controller ~]# cd /etc/swift/
  2. [root@controller swift]# swift-ring-builder account.builder create #创建account.builder 文件
  3. [root@controller swift]# wift-ring-builder account.builder add --region --zone --ip 192.168.1.104 --port --device sdb --weight #添加每个节点到 ring 中
  4. [root@controller swift]# swift-ring-builder account.builder add --region --zone --ip 192.168.1.104 --port --device sdc --weight
  5. [root@controller swift]# swift-ring-builder account.builder add --region --zone --ip 192.168.1.105 --port --device sdb --weight
  6. [root@controller swift]# swift-ring-builder account.builder add --region --zone --ip 192.168.1.105 --port --device sdc --weight
  7. [root@controller swift]# swift-ring-builder account.builder #验证 ring 的内容
  8. account.builder, build version
  9. partitions, 3.000000 replicas, regions, zones, devices, 0.00 balance, 0.00 dispersion
  10. The minimum number of hours before a partition can be reassigned is
  11. The overload factor is 0.00% (0.000000)
  12. Devices: id region zone ip address port replication ip replication port name weight partitions balance meta
  13. 192.168.1.104 192.168.1.104 sdb 100.00 0.00
  14. 192.168.1.104 192.168.1.104 sdc 100.00 0.00
  15. 192.168.1.105 192.168.1.105 sdb 100.00 0.00
  16. 192.168.1.105 192.168.1.105 sdc 100.00 0.00
  17. [root@controller swift]# swift-ring-builder account.builder rebalance #平衡 ring
  18. Reassigned (100.00%) partitions. Balance is now 0.00. Dispersion is now 0.00
  19. [root@controller swift]# swift-ring-builder container.builder create #创建container.builder文件
  20. [root@controller swift]# swift-ring-builder container.builder add --region --zone --ip 192.168.1.104 --port --device sdb --weight #添加每个节点到 ring 中
  21. [root@controller swift]# swift-ring-builder container.builder add --region --zone --ip 192.168.1.104 --port --device sdc --weight
  22. [root@controller swift]# swift-ring-builder container.builder add --region --zone --ip 192.168.1.105 --port --device sdb --weight
  23. [root@controller swift]# swift-ring-builder container.builder add --region --zone --ip 192.168.1.105 --port --device sdc --weight
  24. [root@controller swift]# swift-ring-builder container.builder #验证 ring 的内容
  25. container.builder, build version
  26. partitions, 3.000000 replicas, regions, zones, devices, 0.00 balance, 0.00 dispersion
  27. The minimum number of hours before a partition can be reassigned is
  28. The overload factor is 0.00% (0.000000)
  29. Devices: id region zone ip address port replication ip replication port name weight partitions balance meta
  30. 192.168.1.104 192.168.1.104 sdb 100.00 0.00
  31. 192.168.1.104 192.168.1.104 sdc 100.00 0.00
  32. 192.168.1.105 192.168.1.105 sdb 100.00 0.00
  33. 192.168.1.105 192.168.1.105 sdc 100.00 0.00
  34. [root@controller swift]# swift-ring-builder container.builder rebalance #平衡 ring
  35. Reassigned (100.00%) partitions. Balance is now 0.00. Dispersion is now 0.00
  36. [root@controller swift]# swift-ring-builder object.builder create #创建object.builder文件
  37. [root@controller swift]# swift-ring-builder object.builder add --region --zone --ip 192.168.1.104 --port --device sdb --weight #添加每个节点到 ring 中
  38. [root@controller swift]# swift-ring-builder object.builder add --region --zone --ip 192.168.1.104 --port --device sdc --weight
  39. [root@controller swift]# swift-ring-builder object.builder add --region --zone --ip 192.168.1.105 --port --device sdb --weight
  40. [root@controller swift]# swift-ring-builder object.builder add --region --zone --ip 192.168.1.105 --port --device sdc --weight
  41. [root@controller swift]# swift-ring-builder object.builder #验证 ring 的内容
  42. object.builder, build version
  43. partitions, 3.000000 replicas, regions, zones, devices, 0.00 balance, 0.00 dispersion
  44. The minimum number of hours before a partition can be reassigned is
  45. The overload factor is 0.00% (0.000000)
  46. Devices: id region zone ip address port replication ip replication port name weight partitions balance meta
  47. 192.168.1.105 192.168.1.105 sdb 100.00 0.00
  48. 192.168.1.105 192.168.1.105 sdc 100.00 0.00
  49. 192.168.1.104 192.168.1.104 sdb 100.00 0.00
  50. 192.168.1.104 192.168.1.104 sdc 100.00 0.00
  51. [root@controller swift]# swift-ring-builder object.builder rebalance #平衡 ring
  52. Reassigned (100.00%) partitions. Balance is now 0.00. Dispersion is now 0.00
  53. [root@controller swift]# scp account.ring.gz container.ring.gz object.ring.gz 192.168.1.104:/etc/swift/ #复制account.ring.gz,container.ring.gz和object.ring.gz文件到每个存储节点和其他运行了代理服务的额外节点的 /etc/swift 目录
  54. [root@controller swift]# scp account.ring.gz container.ring.gz object.ring.gz 192.168.1.105:/etc/swift/
  55. [root@controller swift]# vim /etc/swift/swift.conf #编辑/etc/swift/swift.conf文件并完成以下操作
  56. [swift-hash] #在[swift-hash]部分,为你的环境配置哈希路径前缀和后缀,这些值要保密,并且不要修改或丢失。
  57. swift_hash_path_suffix = 0123456789abcdefghijklmnopqrstuvwxyzABCDEFGHIJKLMNOPQRSTUVWXYZ!"#$%&'()*+,-./:;<=>?@[\]^_`{|}~
  58. swift_hash_path_prefix = 0123456789abcdefghijklmnopqrstuvwxyzABCDEFGHIJKLMNOPQRSTUVWXYZ!"#$%&'()*+,-./:;<=>?@[\]^_`{|}~
  59. [storage-policy:] #在[storage-policy:0]部分,配置默认存储策略
  60. name = Policy-
  61. default = yes
  62. [root@controller swift]# chown -R root:swift /etc/swift
  63. [root@controller swift]# systemctl enable openstack-swift-proxy.service memcached.service #在控制节点和其他运行了代理服务的节点上,启动对象存储代理服务及其依赖服务,并将它们配置为随系统启动
  64. [root@controller swift]# systemctl start openstack-swift-proxy.service memcached.service

存储节点:

  1. [root@object1 ~]#systemctl enable openstack-swift-account.service openstack-swift-account-auditor.service openstack-swift-account-reaper.service openstack-swift-account-replicator.service
  2. [root@object1 ~]#systemctl enable openstack-swift-container.service openstack-swift-container-auditor.service openstack-swift-container-replicator.service openstack-swift-container-updater.service
  3. [root@object1 ~]# systemctl enable openstack-swift-object.service openstack-swift-object-auditor.service openstack-swift-object-replicator.service openstack-swift-object-updater.service
  4. [root@object1 ~]#systemctl start openstack-swift-account.service openstack-swift-account-auditor.service openstack-swift-account-reaper.service openstack-swift-account-replicator.service
  5. [root@object1 ~]#systemctl start openstack-swift-container.service openstack-swift-container-auditor.service openstack-swift-container-replicator.service openstack-swift-container-updater.service
  6. [root@object1 ~]#systemctl start openstack-swift-object.service openstack-swift-object-auditor.service openstack-swift-object-replicator.service openstack-swift-object-updater.service

验证操作:

控制节点:

  1. [root@controller swift]#cd
  2. [root@controller ~]# echo "export OS_AUTH_VERSION=3" | tee -a admin-openrc.sh demo-openrc.sh #配置对象存储服务客户端使用版本3的认证API
  3. [root@controller ~]# swift stat #显示服务状态
  4. Account: AUTH_444fce5db34546a7907af45df36d6e99
  5. Containers:
  6. Objects:
  7. Bytes:
  8. X-Put-Timestamp: 1518798659.41272
  9. X-Timestamp: 1518798659.41272
  10. X-Trans-Id: tx304f1ed71c194b1f90dd2-005a870740
  11. Content-Type: text/plain; charset=utf-
  12. [root@controller ~]# swift upload container1 demo-openrc.sh #上传一个测试文件
  13. demo-openrc.sh
  14. [root@controller ~]# swift list #列出容器
  15. container1
  16. [root@controller ~]# swift download container1 demo-openrc.sh #下载一个测试文件
  17. demo-openrc.sh [auth .295s, headers .339s, total .339s, 0.005 MB/s]

三、添加 Orchestration(编排) 服务

1.服务简述

  1. 编排服务通过运行调用生成运行中云应用程序的OpenStack API为描述云应用程序提供基于模板的编排。该软件将其他OpenStack核心组件整合进一个单文件模板系统。模板允许你创建很多种类的OpenStack资源,如实例,浮点IP,云硬盘,安全组和用户。它也提供高级功能,如实例高可用,实例自动缩放,和嵌套栈。这使得OpenStack的核心项目有着庞大的用户群。
  2. 服务使部署人员能够直接或者通过定制化插件来与编排服务集成
  3. 编排服务包含以下组件:
  4. heat命令行客户端
  5.   一个命令行工具,和``heat-api``通信,以运行:term:AWS CloudFormation API,最终开发者可以直接使用Orchestration REST API
  6. heat-api组件
  7.   一个OpenStack本地 REST API ,发送API请求到heat-engine,通过远程过程调用(RPC)。
  8. heat-api-cfn组件
  9.   AWS 队列API,和AWS CloudFormation兼容,发送API请求到``heat-engine``,通过远程过程调用。
  10. heat-engine
  11.   启动模板和提供给API消费者回馈事件。

2.部署需求:在安装和配置流程服务之前,必须创建数据库,服务凭证和API端点。流程同时需要在认证服务中添加额外信息。

在控制节点上:

  1. [root@controller ~]# mysql -u root -p123456 #创建数据库并设置权限
  2. MariaDB [(none)]>CREATE DATABASE heat;
  3. MariaDB [(none)]>GRANT ALL PRIVILEGES ON heat.* TO 'heat'@'localhost' IDENTIFIED BY '';
  4. MariaDB [(none)]>GRANT ALL PRIVILEGES ON heat.* TO 'heat'@'%' IDENTIFIED BY '';
  5. MariaDB [(none)]>\q
  6. [root@controller ~]# source admin-openrc.sh
  7. [root@controller ~]# openstack user create --domain default --password-prompt heat #创建heat用户
  8. User Password: #密码为:
  9. Repeat User Password:
  10. [root@controller ~]# openstack role add --project service --user heat admin #添加 admin 角色到 heat 用户上
  11. [root@controller ~]# openstack service create --name heat --description "Orchestration" orchestration #创建heat和 heat-cfn 服务实体
  12. [root@controller ~]# openstack service create --name heat-cfn --description "Orchestration" cloudformation
  13. [root@controller ~]# openstack endpoint create --region RegionOne orchestration public http://controller:8004/v1/%\(tenant_id\)s #创建 Orchestration 服务的 API 端点
  14. [root@controller ~]# openstack endpoint create --region RegionOne orchestration internal http://controller:8004/v1/%\(tenant_id\)s
  15. [root@controller ~]# openstack endpoint create --region RegionOne orchestration admin http://controller:8004/v1/%\(tenant_id\)s
  16. [root@controller ~]# openstack endpoint create --region RegionOne cloudformation public http://controller:8000/v1
  17. [root@controller ~]# openstack endpoint create --region RegionOne cloudformation internal http://controller:8000/v1
  18. [root@controller ~]# openstack endpoint create --region RegionOne cloudformation admin http://controller:8000/v1
  19. [root@controller ~]# openstack domain create --description "Stack projects and users" heat #为栈创建 heat 包含项目和用户的域
  20. [root@controller ~]# openstack user create --domain heat --password-prompt heat_domain_admin #在 heat 域中创建管理项目和用户的heat_domain_admin用户
  21. User Password: #密码为:
  22. Repeat User Password:
  23. [root@controller ~]# openstack role add --domain heat --user heat_domain_admin admin #添加admin角色到 heat 域 中的heat_domain_admin用户,启用heat_domain_admin用户管理栈的管理权限
  24. [root@controller ~]# openstack role create heat_stack_owner #创建 heat_stack_owner 角色
  25. [root@controller ~]# openstack role add --project demo --user demo heat_stack_owner #添加heat_stack_owner角色到demo项目和用户,启用demo用户管理栈
  26. [root@controller ~]# openstack role create heat_stack_user #创建 heat_stack_user 角色,Orchestration 自动地分配 heat_stack_user角色给在 stack 部署过程中创建的用户。默认情况下,这个角色会限制 API 的操作。为了避免冲突,请不要为用户添加 heat_stack_owner角色。

3.服务部署

控制节点:

  1. [root@controller ~]# yum install -y openstack-heat-api openstack-heat-api-cfn openstack-heat-engine python-heatclient
  2. [root@controller ~]# vim /etc/heat/heat.conf #编辑 /etc/heat/heat.conf 文件并完成如下内容
  3. [database]
  4. connection = mysql://heat:123456@controller/heat #配置数据库访问
  5. [DEFAULT]
  6. rpc_backend = rabbit #配置RabbitMQ消息队列访问
  7. heat_metadata_server_url = http://controller:8000 #配置元数据和 等待条件URLs
  8. heat_waitcondition_server_url = http://controller:8000/v1/waitcondition
  9. stack_domain_admin = heat_domain_admin #配置栈域与管理凭据
  10. stack_domain_admin_password =
  11. stack_user_domain_name = heat
  12. verbose = True #部分启用详细日志
  13. [oslo_messaging_rabbit]
  14. rabbit_host = controller
  15. rabbit_userid = openstack
  16. rabbit_password = RABBIT_PASS
  17. [keystone_authtoken] #配置认证服务访问
  18. auth_uri = http://controller:5000
  19. auth_url = http://controller:35357
  20. auth_plugin = password
  21. project_domain_id = default
  22. user_domain_id = default
  23. project_name = service
  24. username = heat
  25. password =
  26. [trustee] #配置认证服务访问
  27. auth_plugin = password
  28. auth_url = http://controller:35357
  29. username = heat
  30. password =
  31. user_domain_id = default
  32. [clients_keystone] #配置认证服务访问
  33. auth_uri = http://controller:5000
  34. [ec2authtoken] #配置认证服务访问
  35. auth_uri = http://controller:5000/v3
  36. [root@controller ~]# su -s /bin/sh -c "heat-manage db_sync" heat #同步Orchestration数据库
  37. [root@controller ~]# systemctl enable openstack-heat-api.service openstack-heat-api-cfn.service openstack-heat-engine.service
  38. [root@controller ~]#systemctl start openstack-heat-api.service openstack-heat-api-cfn.service openstack-heat-engine.service

验证操作

  1. [root@controller ~]# source admin-openrc.sh
  2. [root@controller ~]# heat service-list #该输出显示表明在控制节点上有应该四个heat-engine组件
  3. +------------+-------------+--------------------------------------+------------+--------+----------------------------+--------+
  4. | hostname | binary | engine_id | host | topic | updated_at | status |
  5. +------------+-------------+--------------------------------------+------------+--------+----------------------------+--------+
  6. | controller | heat-engine | 0d26b5d3-ec8a-44ad--b2be72ccfaa7 | controller | engine | --16T11::41.000000 | up |
  7. | controller | heat-engine | 587b87e2-9e91-4cac-a8b2-53f51898a9c5 | controller | engine | --16T11::41.000000 | up |
  8. | controller | heat-engine | 8891e45b-beda-49b2-bfc7-29642f072eac | controller | engine | --16T11::41.000000 | up |
  9. | controller | heat-engine | b0ef7bbb-cfb9--a214-db9049b12a25 | controller | engine | --16T11::41.000000 | up |
  10. +------------+-------------+--------------------------------------+------------+--------+----------------------------+--------+

四、添加 Telemetry(计量数据收集) 服务

1.服务概述

  1. 计量数据收集(Telemetry)服务提供如下功能:
  2.   1.相关OpenStack服务的有效调查计量数据。
  3.   2.通过监测通知收集来自各个服务发送的事件和计量数据。
  4.   3.发布收集来的数据到多个目标,包括数据存储和消息队列。
  5. Telemetry服务包含以下组件:
  6. 计算代理 (ceilometer-agent-compute)
  7.   运行在每个计算节点中,推送资源的使用状态,也许在未来会有其他类型的代理,但是目前来说社区专注于创建计算节点代理。
  8. 中心代理 (ceilometer-agent-central)
  9.   运行在中心管理服务器以推送资源使用状态,既不捆绑到实例也不在计算节点。代理可启动多个以横向扩展它的服务。
  10. ceilometer通知代理;
  11.   运行在中心管理服务器(s)中,获取来自消息队列(s)的消息去构建事件和计量数据。
  12. ceilometor收集器(负责接收信息进行持久化存储)
  13.   运行在中心管理服务器(s),分发收集的telemetry数据到数据存储或者外部的消费者,但不会做任何的改动。
  14. API服务器 (ceilometer-api)
  15.   运行在一个或多个中心管理服务器,提供从数据存储的数据访问。
  16. 检查告警服务
  17.   当收集的度量或事件数据打破了界定的规则时,计量报警服务会出发报警。
  18.  
  19. 计量报警服务包含以下组件:
  20. API服务器 (aodh-api)
  21.   运行于一个或多个中心管理服务器上提供访问存储在数据中心的警告信息。
  22. 报警评估器 (aodh-evaluator)
  23.   运行在一个或多个中心管理服务器,当警告发生是由于相关联的统计趋势超过阈值以上的滑动时间窗口,然后作出决定。
  24. 通知监听器 (aodh-listener)
  25.   运行在一个中心管理服务器上,来检测什么时候发出告警。根据对一些事件预先定义一些规则,会产生相应的告警,同时能够被Telemetry数据收集服务的通知代理捕获到。
  26. 报警通知器 (aodh-notifier)
  27.   运行在一个或多个中心管理服务器,允许警告为一组收集的实例基于评估阀值来设置。
  28.  
  29. 这些服务使用OpenStack消息总线来通信,只有收集者和API服务可以访问数据存储。

2.部署需求:安装和配置Telemetry服务之前,你必须创建创建一个数据库、服务凭证和API端点。但是,不像其他服务,Telemetry服务使用NoSQL 数据库

控制节点:

  1. [root@controller ~]# yum install -y mongodb-server mongodb
  2. [root@controller ~]# vim /etc/mongod.conf #编辑 /etc/mongod.conf文件,并修改或添加如下内容
  3. bind_ip = 192.168.1.101
  4. smallfiles = true #默认情况下,MongoDB会在/var/lib/mongodb/journal目录下创建几个 1 GB 大小的日志文件。如果你想将每个日志文件大小减小到128MB并且限制日志文件占用的总空间为512MB,配置 smallfiles 的值
  5. [root@controller ~]# systemctl enable mongod.service
  6. [root@controller ~]# systemctl start mongod.service
  7. [root@controller ~]# mongo --host controller --eval 'db = db.getSiblingDB("ceilometer"); db.createUser({user: "ceilometer",pwd: "123456",roles: [ "readWrite", "dbAdmin" ]})' #创建 ceilometer 数据库
  8. MongoDB shell version: 2.6.
  9. connecting to: controller:/test
  10. Successfully added user: { "user" : "ceilometer", "roles" : [ "readWrite", "dbAdmin" ] }
  11. [root@controller ~]# source admin-openrc.sh
  12. [root@controller ~]# openstack user create --domain default --password-prompt ceilometer #创建 ceilometer 用户
  13. User Password: #密码为:
  14. Repeat User Password:
  15. [root@controller ~]# openstack role add --project service --user ceilometer admin #添加 admin 角色到 ceilometer 用户上
  16. [root@controller ~]# openstack service create --name ceilometer --description "Telemetry" metering #创建 ceilometer 服务实体
  17. [root@controller ~]# openstack endpoint create --region RegionOne metering public http://controller:8777 #创建Telemetry服务API端点
  18. [root@controller ~]# openstack endpoint create --region RegionOne metering internal http://controller:8777
  19. [root@controller ~]# openstack endpoint create --region RegionOne metering admin http://controller:8777

3.服务部署

控制节点:

  1. [root@controller ~]# yum install openstack-ceilometer-api openstack-ceilometer-collector openstack-ceilometer-notification openstack-ceilometer-central openstack-ceilometer-alarm python-ceilometerclient -y
  2. [root@controller ~]# vim /etc/ceilometer/ceilometer.conf #编辑 /etc/ceilometer/ceilometer.conf,修改或添加如下内容
  3. [DEFAULT]
  4. rpc_backend = rabbit #配置RabbitMQ消息队列访问
  5. auth_strategy = keystone #配置认证服务访问
  6. verbose = True
  7. [oslo_messaging_rabbit] #配置RabbitMQ消息队列访问
  8. rabbit_host = controller
  9. rabbit_userid = openstack
  10. rabbit_password =
  11. [keystone_authtoken] #配置认证服务访问
  12. auth_uri = http://controller:5000
  13. auth_url = http://controller:35357
  14. auth_plugin = password
  15. project_domain_id = default
  16. user_domain_id = default
  17. project_name = service
  18. username = ceilometer
  19. password =
  20. [service_credentials] #配置服务证书
  21. os_auth_url = http://controller:5000/v2.0
  22. os_username = ceilometer
  23. os_tenant_name = service
  24. os_password =
  25. os_endpoint_type = internalURL
  26. os_region_name = RegionOne
  27. [root@controller ~]# systemctl enable openstack-ceilometer-api.service openstack-ceilometer-notification.service openstack-ceilometer-central.service openstack-ceilometer-collector.service openstack-ceilometer-alarm-evaluator.service openstack-ceilometer-alarm-notifier.service
  28. [root@controller ~]# systemctl start openstack-ceilometer-api.service openstack-ceilometer-notification.service openstack-ceilometer-central.service openstack-ceilometer-collector.service openstack-ceilometer-alarm-evaluator.service openstack-ceilometer-alarm-notifier.service

4.启用镜像服务计量

  1. [root@controller ~]# vim /etc/glance/glance-api.conf #编辑 /etc/glance/glance-api.conf 和 /etc/glance/glance-registry.conf 文件,同时修改或添加如下内容
  2. [DEFAULT] #配置 notifications 和”RabbitMQ 消息队列访问
  3. notification_driver = messagingv2
  4. rpc_backend = rabbit
  5. [oslo_messaging_rabbit]
  6. rabbit_host = controller
  7. rabbit_userid = openstack
  8. rabbit_password =
  9. [root@controller ~]# systemctl restart openstack-glance-api.service openstack-glance-registry.service #重启镜像服务

5启用计算服务计量

  1. [root@controller ~]# yum install -y openstack-ceilometer-compute python-ceilometerclient python-pecan
  2. [root@controller ~]# vim /etc/ceilometer/ceilometer.conf #编辑 /etc/ceilometer/ceilometer.conf,添加或修改如下内容
  3. [DEFAULT]
  4. rpc_backend = rabbit #配置RabbitMQ消息队列访问
  5. auth_strategy = keystone #配置认证服务访问
  6. verbose = True
  7. [oslo_messaging_rabbit] #配置RabbitMQ消息队列访问
  8. rabbit_host = controller
  9. rabbit_userid = openstack
  10. rabbit_password =
  11. [keystone_authtoken] #配置认证服务访问
  12. auth_uri = http://controller:5000
  13. auth_url = http://controller:35357
  14. auth_plugin = password
  15. project_domain_id = default
  16. user_domain_id = default
  17. project_name = service
  18. username = ceilometer
  19. password =
  20. [service_credentials] #配置服务证书
  21. os_auth_url = http://controller:5000/v2.0
  22. os_username = ceilometer
  23. os_tenant_name = service
  24. os_password =
  25. os_endpoint_type = internalURL
  26. os_region_name = RegionOne
  27. [root@controller ~]#vim /etc/nova/nova.conf #编辑 /etc/nova/nova.conf 文件,添加或修改如下内容
  28. [DEFAULT]
  29. instance_usage_audit = True #配置notifications
  30. instance_usage_audit_period = hour
  31. notify_on_state_change = vm_and_task_state
  32. notification_driver = messagingv2
  33. [root@controller ~]# systemctl enable openstack-ceilometer-compute.service #启动代理并配置开机启动
  34. [root@controller ~]# systemctl start openstack-ceilometer-compute.service
  35. [root@controller ~]# systemctl restart openstack-nova-compute.service #重启计算服务

6.启用块存储计量

在控制节点和块存储节点上执行这些步骤

  1. [root@controller ~]# vim /etc/cinder/cinder.conf #编辑 /etc/cinder/cinder.conf,同时完成如下内容
  2. [DEFAULT]
  3. notification_driver = messagingv2
  4. [root@controller ~]
  5. [root@controller ~]# systemctl restart openstack-cinder-volume.service # 重启控制节点上的块设备存储服务!!!
  1. 存储节点上:
  1. [root@block1 ~]# systemctl restart openstack-cinder-volume.service #重启存储节点上的块设备存储服务!!!

7.启用对象存储计量

  1. [root@controller ~]# source admin-openrc.sh
  2. [root@controller ~]# openstack role create ResellerAdmin
  3. [root@controller ~]# openstack role add --project service --user ceilometer ResellerAdmin
  4. [root@controller ~]# yum install -y python-ceilometermiddleware
  5. [root@controller ~]# vim/etc/swift/proxy-server.conf #编辑 /etc/swift/proxy-server.conf 文件,添加或修改如下内容
  6. [filter:keystoneauth]
  7. operator_roles = admin, user, ResellerAdmin #添加 ResellerAdmin 角色
  8. [pipeline:main] #添加 ceilometer
  9. pipeline = catch_errors gatekeeper healthcheck proxy-logging cache container_sync bulk ratelimit authtoken keystoneauth container-quotas account-quotas slo dlo versioned_writes proxy-logging ceilometer proxy-server
  10. proxy-server
  11. [filter:ceilometer] #配置提醒
  12. paste.filter_factory = ceilometermiddleware.swift:filter_factory
  13. control_exchange = swift
  14. url = rabbit://openstack:123456@controller:5672/
  15. driver = messagingv2
  16. topic = notifications
  17. log_level = WARN
  18. [root@controller ~]# systemctl restart openstack-swift-proxy.service #重启对象存储的代理服务

8.验证

在控制节点上执行

  1. [root@controller ~]# source admin-openrc.sh
  2. [root@controller ~]# ceilometer meter-list |grep image #列出可用的 meters,过滤镜像服务
  3. +---------------------------------+------------+-----------+-----------------------------------------------------------------------+----------------------------------+----------------------------------+
  4. | Name | Type | Unit | Resource ID | User ID | Project ID |
  5. +---------------------------------+------------+-----------+-----------------------------------------------------------------------+----------------------------------+----------------------------------+
  6. | image | gauge | image | 68259f9f-c5c1---cef301cedb2b | None | b1d045eb3d62421592616d56a69c4de3 |
  7. | image.size | gauge | B | 68259f9f-c5c1---cef301cedb2b | None |
  8. +---------------------------------+------------+-----------+-----------------------------------------------------------------------+----------------------------------+----------------------------------+
  9. [root@controller ~]# glance image-list | grep 'cirros' | awk '{ print $2 }' #从镜像服务下载CirrOS镜像
  10. 68259f9f-c5c1---cef301cedb2b
  11. [root@controller ~]# glance image-download 68259f9f-c5c1---cef301cedb2b > /tmp/cirros.img
  12. [root@controller ~]# ceilometer meter-list|grep image #再次列出可用的 meters 以验证镜像下载的检查
  13. | image | gauge | image | 68259f9f-c5c1---cef301cedb2b | 7bafc586c1f442c6b4c92f42ba90efd4 | b1d045eb3d62421592616d56a69c4de3 |
  14. | image.download | delta | B | 68259f9f-c5c1---cef301cedb2b | 7bafc586c1f442c6b4c92f42ba90efd4 | b1d045eb3d62421592616d56a69c4de3 |
  15. | image.serve | delta | B | 68259f9f-c5c1---cef301cedb2b | 7bafc586c1f442c6b4c92f42ba90efd4 | b1d045eb3d62421592616d56a69c4de3 |
  16. | image.size | gauge | B | 68259f9f-c5c1---cef301cedb2b | 7bafc586c1f442c6b4c92f42ba90efd4 | b1d045eb3d62421592616d56a69c4de3 |
  17. [root@controller ~]# ceilometer statistics -m image.download -p #从 image.download 表读取使用量统计值
  18. +--------+----------------------------+----------------------------+------------+------------+------------+------------+-------+----------+----------------------------+----------------------------+
  19. | Period | Period Start | Period End | Max | Min | Avg | Sum | Count | Duration | Duration Start | Duration End |
  20. +--------+----------------------------+----------------------------+------------+------------+------------+------------+-------+----------+----------------------------+----------------------------+
  21. | | --16T12::46.351000 | --16T12::46.351000 | 13287936.0 | 13287936.0 | 13287936.0 | 13287936.0 | | 0.0 | --16T12::23.052000 | --16T12::23.052000 |
  22. +--------+----------------------------+----------------------------+------------+------------+------------+------------+-------+----------+----------------------------+----------------------------+
  23. [root@controller ~]# ll /tmp/cirros.img #查看下载的镜像文件大小和使用量是否一致
  24. -rw-r--r-- root root 2 : /tmp/cirros.img

CentOS7.4安装部署openstack [Liberty版] (二)的更多相关文章

  1. CentOS7.4安装部署openstack [Liberty版] (一)

    一.OpenStack简介 OpenStack是一个由NASA(美国国家航空航天局)和Rackspace合作研发并发起的,以Apache许可证授权的自由软件和开放源代码项目. OpenStack是一个 ...

  2. CentOS7.2非HA分布式部署Openstack Pike版 (实验)

    部署环境 一.组网拓扑 二.设备配置 笔记本:联想L440处理器:i3-4000M 2.40GHz内存:12G虚拟机软件:VMware® Workstation 12 Pro(12.5.2 build ...

  3. centos7 下 安装部署nginx

    centos7 下 安装部署nginx 1.nginx安装依赖于三个包,注意安装顺序 a.SSL功能需要openssl库,直接通过yum安装: #yum install openssl b.gzip模 ...

  4. centos7.8 安装部署 k8s 集群

    centos7.8 安装部署 k8s 集群 目录 centos7.8 安装部署 k8s 集群 环境说明 Docker 安装 k8s 安装准备工作 Master 节点安装 k8s 版本查看 安装 kub ...

  5. 在Ubuntu 12.10 上安装部署Openstack

    OpenStack系统有几个关键的项目,它们能够独立地安装但是能够在你的云计算中共同工作.这些项目包括:OpenStack Compute,OpenStack Object Storage,OpenS ...

  6. Asp.NetCore程序发布到CentOs(含安装部署netcore)--最佳实践(二)

    Asp.NetCore程序发布到CentOs(含安装部署netcore)--最佳实践(一) 接上一篇 3. Nginx配置反向代理 3.1 cnetos 安装nginx 首先,我们需要在服务器上安装N ...

  7. Docker(2)--Centos7 上安装部署

    Centos7 上安装docker Docker从1.13版本之后采用时间线的方式作为版本号,分为社区版CE和企业版EE. 社区版是免费提供给个人开发者和小型团体使用的,企业版会提供额外的收费服务,比 ...

  8. Centos7下安装部署oracle数据库方法及问题汇总

    目标:在centos7上配置oracle数据库服务器,并在win7上面使用pl/sql成功访问该oracle数据库 系统环境: 服务器:centos7 64位 客户端:win7 64位 注意cneto ...

  9. centos7 showdoc 安装部署

    1.进入showdoc官网帮助目录下 https://www.showdoc.cc/web/#/help?page_id=828455960655160 阅读自动安装部署相关事项: 2.利用xshel ...

随机推荐

  1. 笔记:Javascript 会提升变量声明

    笔记:Javascript 会提升变量声明 Javascript 会自动提升变量声明,但不会提升变量赋值. 如下代码, 按 F12 控制器显示的是 Hello, undefined 说明只是把 b 了 ...

  2. 判断两个IP是否处于同一子网(网段)

    如何去判断A和B两个IP是否在同一网段,假如有如下两个IP地址和子网掩码,判断他们是否是同一个网段的IP地址的方法: A IP:202.194.128.9 B IP:202.194.128.14 子网 ...

  3. gaea-editor 项目使用

    项目地址:https://github.com/ascoders/gaea-editor 打开编辑器界面:运行npm run docs 下载gaea-editor项目,进行调试,注意点: gaea-e ...

  4. log4j.properties配置说明学习网址

    https://blog.csdn.net/wangzhaotongalex/article/details/51308802

  5. 有10 亿个 url,每个 url 大小小于 56B,要求去重,内存只给你4G

    问题:有10 亿个 url,每个 url 大小小于 56B,要求去重,内存只给你4G 思路: 1.首先将给定的url调用hash方法计算出对应的hash的value,在10亿的url中相同url必然有 ...

  6. sqlalchemy操作----多表关联

    有二张表,一张作者表,一张书表,一个作者写多本书,一本书可以由多个作者写,与是通过新加一张关系表把他们联系起来 #!/usr/bin/env python # -*- coding: utf-8 -* ...

  7. 《LOST》 电视

    还没看正剧,所以转来帮助看电视 从起源到终点:<LOST>剧情全解析(一)   此文是LOST完结之后的剧情解析,剧透,慎入   从起源到终点:<LOST>剧情全解析(一) 转 ...

  8. linux 添加多个网段

    1.在系统中添加网络配置文件脚本 # cd /etc/sysconfig/network-scripts # cp ifcfg-eth0 ifcfg-eth0:0 2.修改新添加的网络配置脚本文件如下 ...

  9. Azure SQL Database (26) 使用Query Store对Azure SQL Database监控

    <Windows Azure Platform 系列文章目录> 我们在使用Azure SQL Database的时候,需要对数据库的性能进行监控,这时候就可以有两种方法: 1.第一种方法, ...

  10. 深度图像配准(Registration)原理

    机器视觉中,3D相机产生的深度图像(depth image)通常需要配准(registration),以生成配准深度图像(registed depth image).实际上配准的目的就是想让深度图和彩 ...