OpenStack的HA方案】的更多相关文章

一.HA服务分类 HA将服务分为两类: 有状态服务:后续对服务的请求依赖之前对服务的请求,OpenStack中有状态的服务包括MySQL数据库和AMQP消息队列.对于有状态类服务的HA,如neutron-l3-agent,neutron-metadata-agent.nova-compute,cinder-volume等服务,最简单的方法就是多节点部署.比如某一节点的nova-compute服务挂了,也并不会影响整个云平台不能创建虚拟机,或者所在节点的虚拟机无法使用.(比如ssh等) 无状态服务…
[Toc] https://github.com/wanstack/AutoMitaka # 亲情奉献安装openstack HA脚本 使用python + shell,完成了基本的核心功能(纯二层的).欢迎Fork ,喜欢的请记得start一下.非常感谢. --- title: Openstack Mitaka 集群安装部署 --- : tags: Openstack --- ==openstack运维开发群: 欢迎牛逼的你== ### Openstack Mitaka HA 实施部署测试文档…
本系列会分析OpenStack 的高可用性(HA)概念和解决方案: (1) OpenStack 高可用方案概述 (2) Neutron L3 Agent HA - VRRP (虚拟路由冗余协议) (3) Neutron L3 Agent HA - DVR (分布式虚机路由器) (4)RabbitMQ 和 Mysql HA (5)OpenStack 和 VMware 的高可用性比较 1. 基础知识 1.1 高可用 (High Availability,简称 HA) 高可用性是指提供在本地系统单个组…
上一篇介绍了基于ZK的ActiveMQ HA方案,虽然理解起来比较容易,但是有二个不足: 1)  占用的节点数过多,1个zk集群至少3个节点,1个activemq集群也至少得3个节点,但其实正常运行时,只有一个master节点在对外响应,换句话说,花6个节点的成本只为了保证1个activemq master节点的高可用,太浪费资源了. 2)  性能下降太明显,比起单节点的activemq,性能下降了近1个数量级. 这一篇将介绍基于networks of brokers的HA方案,不需要借助zk等…
activemq官网给出了3种master/slave的HA方案,详见:http://activemq.apache.org/masterslave.html,基于共享文件目录,db,zookeeper. 下面演示了如何在本机搭建基于zookeeper的activemq集群: 一.在目录activemq1下安装activemq(可参考上篇内容),然后修改conf/activemq.xml <broker xmlns="http://activemq.apache.org/schema/co…
MySQL HA方案之MySQL半复制+MHA+Keepalived+Atlas+LVS 简介 目前Mysql高可用的方案有好多,比如MMM,heartbeat+drbd,Cluster等,还有percona的Galera Cluster等.这些高可用软件各有优劣.在进行高可用方案选择时,主要是看业务还有对数据一致性方面的要求.本文探讨的是MHA这种方案. 至于DAL层,也有很多方案,现在主流的一是在应用层写数据库路由,当然这个效率也是最快的,但是最大的缺陷就是运维难度大,技术难度也大,需 要有…
我们知道hadoop1.x之前的namenode存在两个主要的问题:1.namenode内存瓶颈的问题,2.namenode的单点故障的问题.针对这两个问题,hadoop2.x都对它进行改进和解决.其中,问题1中对namenode内存瓶颈的问题采用扩展namenode的方式来解决.对于问题2中的namenode的单点故障问题hadoop2.x采用的是HA的解决方案.apache hadoop 官方网站上提供了两种解决HDFS High Availability Using the Quorum…
上一篇介绍了基于ZK的ActiveMQ HA方案,虽然理解起来比较容易,但是有二个不足: 1)  占用的节点数过多,1个zk集群至少3个节点,1个activemq集群也至少得3个节点,但其实正常运行时,只有一个master节点在对外响应,换句话说,花6个节点的成本只为了保证1个activemq master节点的高可用,太浪费资源了. 2)  性能下降太明显,比起单节点的activemq,性能下降了近1个数量级. 这一篇将介绍基于networks of brokers的HA方案,不需要借助zk等…
为了初步了解openstack controller ha的工作原理,搭建测试环境进行学习. 在学习该方面知识时,当前采用的操作系统版本是centos 7.1 x64.首先在ESXi中建立2台用于测试的虚机,最小化安装完成centos,配置IP分别为10.0.0.12.10.0.0.13,主机名分别为controller2.controller3. 关闭防火墙:# systemctl stop firewalld# systemctl disable firewalld 修改主机名:# host…
原文成文于去年(2012.7.30),已然过去了一年,很多信息也许已经过时,不保证正确,与Hadoop学习笔记系列一样仅为留做提醒. ----- 针对现有的所有Hadoop HA方案进行调研,以时间为线,总结如下: 1. BackupNode方案: 08年时开源社区已经开始着手解决Namenode单点问题,随之出来的第一个方案是BackupNode方案.基于0.20版,并合并进入0.21版:参见Apache JIRA HADOOP-4539 [1] 该方案思路为:将NameNode产生的edit…
PostgreSQL+pgpooll+Keepalived双机HA方案 (注:本文档中的所有操作在没有说明的情况下都应该使用postgres用户进行操作,postgres用户没有权限的操作方可采用root用户进行操作,可以在本方案中使用postgres用户及该用户的密码替换replcia及replica用户的密码) 方案逻辑图 192.168.100.3的pgpool故障图 192.168.100.4的pgpool故障图 192.168.100.3的Master故障图 一.环境信息 操作系统:C…
一.背景 ibmmq是一种传统架构的mq产品,运行稳定,有其自身优点,但在高可用(HA)这一块需要使用公司根据自身需求选用高可用(HA)产品,但由于市面HA商业产品较贵,所以使用linux操作系统级的heartbeat产品是最廉价合适的.关于ibmmq网络共享存储的选用有很多,最贴近生产环境的是ISCSI协议的存储,所以使用ISCSI做为mq服务器共享存储(下文有一点存储方面的知识). 部署架构图: 二.解决思路 1.搭建共享存储环境: 2.安装heartbeat: 3.安装mq软件: 4.相关…
前 言 在面向生产环境的实践中,高可用是我们无法避免的问题,K3s本身也历经多个版本的迭代,HA方案也进行了不断优化,形成了目前的比较稳定的HA方案. 目前官方提供两种HA方案: 嵌入式DB的高可用(实验) 使用外部数据库实现高可用 嵌入式DB的高可用目前还是实验性的,本文不过多介绍,请参考: https://rancher.com/docs/k3s/latest/en/installation/ha-embedded/ 使用外部数据库实现高可用需要搭建一个高可用的外置数据库,目前,K3s支持S…
Blog:博客园 个人 本部署文档适用于CentOS 8.X/RHEL 8.X/Anolis OS 8.X/AlmaLinux 8.X/Rockey Linux 8.X. 原生的HA方案终于来了 相比之前的Keepalived方案,原生方案配置简单了不少. Zabbix HA最少需要2个Zabbix Server节点即可实现HA集群高可用及故障转移.在同一个Zabbix HA集群中,只有一个实例或节点处于active(活动)状态,standby(备用)节点不进行数据收集.处理或其他任务,并且不监…
1  OpenStack高可用介绍 1.1  无状态和有状态服务 无状态服务指的是该服务接收的请求前后之间没有相关关系,接收并处理完该请求后不保存任何状态,在OpenStack的服务中常见的无状态服务有:nova-api.glance-api.keystone-api等服务,大部分都是一些用于接收请求的服务. 有状态服务跟无状态服务相反,它对后续请求的处理依赖于上一次请求的结果,保存了上一次请求处理的结果.在OpenStack的服务中常见的有状态服务有:数据库服务.高级消息队列服务等服务. 对于…
Contents [hide] 1 监控方案调研过程 1.1 1. 虚拟机里内置监控模块 1.2 2. 通过libvirt获取虚拟机数据监控. 2 a.测试openstack的自待组件ceilometer 3 b. sina的kanyun 4 c. 我们自己根据libvirt的api开发cpu使用率,内存使用率,磁盘空间,磁盘读写,网络出入. 5 d. 天成云的监控方案 监控方案调研过程 选择监控方案: 1. 虚拟机里内置监控模块 测试collectd+rrdtool,获取到比较好的监控效果,但…
1.安装centos7.x,配置好网络2.因为docker需要比较高版本的内核,比如使用overlayfs作为默认docker文件系统要3.18,所以先升级内核到3.18以上版本,能直接过4是最佳了检查内核uname -r 不够3.18.x的话 升级内核导入key rpm --import https://www.elrepo.org/RPM-GPG-KEY-elrepo.orgrpm -Uvh http://www.elrepo.org/elrepo-release-7.0-2.el7.elr…
配置rabbitmq集群的步骤非常简单,因为其本身含集群功能,参考openstack官网文档:http://docs.openstack.org/ha-guide/controller-ha-rabbitmq.html 在所有节点安装rabbitmq:# yum install -y rabbitmq-server 在所有节点设置rabbitmq开机启动:# systemctl enable rabbitmq-server.service# systemctl start rabbitmq-se…
openstack作为云的解决方案,必须对某个用户,项目具有资源限制,不能无限制使用资源. 配置 在/etc/nova/nova.conf中,有 quota_driver=nova.quota.DbQuotaDriver quota_driver=nova.quota.NoopQuotaDriver 这个配置,默认使用的是NoopQuotaDriver,表示不使用限制功能.我们将NoopQuotaDriver注释,将DbQuotaDriver打开,重启相关的nova进程,就可以看到效果. 比如修…
使用mysql的galera做多主集群配置,galera的集群优势网络上面有对比,这里不在叙述. 1. 新建3台虚拟机(centos6.5) node1:172.17.44.163 node2:172.17.44.164 node3:172.17.44.165 他们没有主从关系,所有配置都应该一样. 2. 建立软件源 我们有一个内部的软件yum 源,至于怎么建立源服务器,可参考网络上的介绍,我们的源文件的nailgun.repo [nailgun] name=Nailgun baseurl=ht…
0. 进入到/etc/haproxy/conf.d/目录下 mv 015-horizon.cfg 150-timaiaas.cfg 将原有的dashboard的ha配置文件做为自己的配置文件. 1. 修改150-timaiaas.cfg listen timaiaas bind 172.17.46.2:80 balance source capture cookie vgnvisitor= len 32 cookie SERVERID insert indirect nocache mode h…
# source demo-openrc.sh # ssh-keygenGenerating public/private rsa key pair.Enter file in which to save the key (/root/.ssh/id_rsa):Enter passphrase (empty for no passphrase):Enter same passphrase again:Your identification has been saved in /root/.ssh…
在任一控制节点创建用户:mysql -u root -pCREATE DATABASE cinder;GRANT ALL PRIVILEGES ON cinder.* TO 'cinder'@'localhost' IDENTIFIED BY '123456';GRANT ALL PRIVILEGES ON cinder.* TO 'cinder'@'%' IDENTIFIED BY '123456'; 在任一控制节点创建相关用户:source admin-openrc.shkeystone u…
创建neutron用户:mysql -u root -p CREATE DATABASE neutron;GRANT ALL PRIVILEGES ON neutron.* TO 'neutron'@'localhost' IDENTIFIED BY '123456';GRANT ALL PRIVILEGES ON neutron.* TO 'neutron'@'%' IDENTIFIED BY '123456';exit 创建用户.服务.endpoint:keystone user-creat…
在任一节点创建nova用户:mysql -u root -p CREATE DATABASE nova;GRANT ALL PRIVILEGES ON nova.* TO 'nova'@'localhost' IDENTIFIED BY '123456';GRANT ALL PRIVILEGES ON nova.* TO 'nova'@'%' IDENTIFIED BY '123456';exit 在任一节点创建nova用户.租户.endpoint等:source admin-openrc.sh…
在所有集群安装glance软件:yum install -y openstack-glance python-glanceclient 在任一节点创建glance用户:mysql -u root -pCREATE DATABASE glance;GRANT ALL PRIVILEGES ON glance.* TO 'glance'@'localhost' IDENTIFIED BY '123456';GRANT ALL PRIVILEGES ON glance.* TO 'glance'@'%…
在所有节点的hosts文件添加:10.0.0.10 myvip 在所有节点安装# yum install -y openstack-keystone python-keystoneclient# yum install -y openstack-utils 在所有节点设置keystone.conf文件使用mysql集群地址:# openstack-config --set /etc/keystone/keystone.conf database connection mysql://keysto…
haproxy.cfg请备份再编辑:# vi /etc/haproxy/haproxy.cfg global    chroot /var/lib/haproxy    daemon    group haproxy    maxconn 4000    pidfile /var/run/haproxy.pid    user haproxy defaults    log global    maxconn 4000    option redispatch    retries 3    t…
首先说下主从同步Replication的原理 在Slave启动并连接到Master之后,它将主动发送一条SYNC命令.此后Master将启动后台存盘进程,同时收集所有接收到的用于修改数据集的命令,在后台进程执行完毕后,Master将传送整个数据库文件到Slave,以完成一次完全同步.而Slave服务器在接收到数据库文件数据之后将其存盘并加载到内存中.此后,Master继续将所有已经收集到的修改命令,和新的修改命令依次传送给Slaves,Slave将在本次执行这些数据修改命令,从而达到最终的数据同…
第一部分 Redis-HA 搭建 一.Redis-HA 拓扑 一主两从,主从复制,故障时主从切换 三个Redis节点 + Sentinel 节点 Master          127.0.0.1       6379 Slave1       127.0.0.1       6380 Slave2       127.0.0.1       6381 二.环境准备 1 操作系统 CentOS 6.5 2 相关软件 jdk8 Tomcat8 Redis-3.2.8.tar.gz (官网下载) 三…