体验简介

场景将提供一台配置了CentOS 8.5操作系统和安装部署PolarDB-X集群的ECS实例(云服务器)。通过本教程的操作,带您体验如何使用PolarDB-X搭建一个高可用系统,通过直接kill容器模拟节点故障,以观察PolarDB-X 的自动恢复情况。立即前往

实验准备

1. 创建实验资源

开始实验之前,您需要先创建ECS实例资源。

  1. 在实验室页面,单击创建资源

  2. (可选)在实验室页面左侧导航栏中,单击云产品资源列表,可查看本次实验资源相关信息(例如IP地址、用户信息等)。

说明:资源创建过程需要1~3分钟。

2. 安装环境

本步骤将指导您如何安装Docker、kubectl、minikube和Helm3。

  1. 安装Docker。

a.执行如下命令,安装Docker。

  1. curl -fsSL https://get.docker.com | bash -s docker --mirror Aliyun

b.执行如下命令,启动Docker。

  1. systemctl start docker
  1. 安装kubectl。

a.执行如下命令,下载kubectl文件。

  1. curl -LO https://storage.googleapis.com/kubernetes-release/release/$(curl -s https://storage.googleapis.com/kubernetes-release/release/stable.txt)/bin/linux/amd64/kubectl

b.执行如下命令,赋予可执行权限。

  1. chmod +x ./kubectl

c.执行如下命令,移动到系统目录。

  1. mv ./kubectl /usr/local/bin/kubectl
  1. 安装minikube。

执行如下命令,下载并安装minikube。

  1. curl -LO https://storage.googleapis.com/minikube/releases/latest/minikube-linux-amd64
  2. sudo install minikube-linux-amd64 /usr/local/bin/minikube
  1. 安装Helm3。

a.执行如下命令,下载Helm3。

  1. wget https://labfileapp.oss-cn-hangzhou.aliyuncs.com/helm-v3.9.0-linux-amd64.tar.gz

b.执行如下命令,解压Helm3。

  1. tar -zxvf helm-v3.9.0-linux-amd64.tar.gz

c.执行如下命令,移动到系统目录。

  1. mv linux-amd64/helm /usr/local/bin/helm

5.安装MySQL。

  1. yum install mysql -y

3. 使用PolarDB-X Operator安装PolarDB-X

本步骤将指导您如何创建一个简单的Kubernetes集群并部署PolarDB-X Operator ,使用Operator部署一个完整的PolarDB-X集群,详细文档请参考通过Kubernetes安装PolarDB-X

  1. 使用minikube创建Kubernetes集群。

minikube是由社区维护的用于快速创建Kubernetes测试集群的工具,适合测试和学习Kubernetes。使用minikube创建的Kubernetes集群可以运行在容器或是虚拟机中,本实验场景以CentOS 8.5上创建Kubernetes为例。

说明:如果您使用其他操作系统部署minikube,例如macOS或Windows,部分步骤可能略有不同。

a.执行如下命令,新建账号galaxykube,并将galaxykube加入docker组中。minikube要求使用非root账号进行部署,所有您需要新建一个账号。

  1. useradd -ms /bin/bash galaxykube
  2. usermod -aG docker galaxykube

b.执行如下命令,切换到账号galaxykube。

  1. su galaxykube

c.执行如下命令,进入到home/galaxykube目录。

  1. cd

d.执行如下命令,启动一个minikube。

说明:这里我们使用了阿里云的minikube镜像源以及USTC提供的docker镜像源来加速镜像的拉取。

  1. minikube start --cpus 4 --memory 12288 --image-mirror-country cn --registry-mirror=https://docker.mirrors.sjtug.sjtu.edu.cn --kubernetes-version 1.23.3

返回结果如下,表示minikube已经正常运行,minikube将自动设置kubectl的配置文件。

e.执行如下命令,使用kubectl查看集群信息。

  1. kubectl cluster-info

返回如下结果,您可以查看到集群相关信息。

  1. 部署 PolarDB-X Operator。

a.执行如下命令,创建一个名为polardbx-operator-system的命名空间。

  1. kubectl create namespace polardbx-operator-system

b.执行如下命令,安装PolarDB-X Operator。

  1. helm repo add polardbx https://polardbx-charts.oss-cn-beijing.aliyuncs.com
  2. helm install --namespace polardbx-operator-system polardbx-operator polardbx/polardbx-operator

c.执行如下命令,查看PolarDB-X Operator组件的运行情况。

  1. kubectl get pods --namespace polardbx-operator-system

返回结果如下,请您耐心等待2分钟,等待所有组件都进入Running状态,表示PolarDB-X Operator已经安装完成。

  1. 部署 PolarDB-X 集群。

a.执行如下命令,创建polardb-x.yaml。

  1. vim polardb-x.yaml

b.按i键进入编辑模式,将如下代码复制到文件中,然后按ECS退出编辑模式,输入:wq后按下Enter键保存并退出。

  1. apiVersion: polardbx.aliyun.com/v1
  2. kind: PolarDBXCluster
  3. metadata:
  4. name: polardb-x
  5. spec:
  6. config:
  7. dn:
  8. mycnfOverwrite: |-
  9. print_gtid_info_during_recovery=1
  10. gtid_mode = ON
  11. enforce-gtid-consistency = 1
  12. recovery_apply_binlog=on
  13. slave_exec_mode=SMART
  14. topology:
  15. nodes:
  16. cdc:
  17. replicas: 1
  18. template:
  19. resources:
  20. limits:
  21. cpu: "1"
  22. memory: 1Gi
  23. requests:
  24. cpu: 100m
  25. memory: 500Mi
  26. cn:
  27. replicas: 2
  28. template:
  29. resources:
  30. limits:
  31. cpu: "2"
  32. memory: 4Gi
  33. requests:
  34. cpu: 100m
  35. memory: 1Gi
  36. dn:
  37. replicas: 1
  38. template:
  39. engine: galaxy
  40. hostNetwork: true
  41. resources:
  42. limits:
  43. cpu: "2"
  44. memory: 4Gi
  45. requests:
  46. cpu: 100m
  47. memory: 500Mi
  48. gms:
  49. template:
  50. engine: galaxy
  51. hostNetwork: true
  52. resources:
  53. limits:
  54. cpu: "1"
  55. memory: 1Gi
  56. requests:
  57. cpu: 100m
  58. memory: 500Mi
  59. serviceType: ClusterIP
  60. upgradeStrategy: RollingUpgrade

c.执行如下命令,创建PolarDB-X集群。

  1. kubectl apply -f polardb-x.yaml

d.执行如下命令,查看PolarDB-X集群创建状态。

  1. kubectl get polardbxCluster polardb-x -o wide -w

返回结果如下,请您耐心等待七分钟左右,当PHASE显示为Running时,表示PolarDB-X集群已经部署完成。

e.按Ctrl+C键,退出查看PolarDB-X集群创建状态。

4. 连接PolarDB-X集群

本步骤将指导您如何连接通过K8s部署的PolarDB-X集群。

  1. 执行如下命令,查看PolarDB-X集群登录密码。
  1. kubectl get secret polardb-x -o jsonpath="{.data['polardbx_root']}" | base64 -d - | xargs echo "Password: "

返回结果如下,您可以查看到PolarDB-X集群登录密码。

  1. 执行如下命令,将PolarDB-X集群端口转发到3306端口。

说明:使用MySQL Client方式登录通过k8s部署的PolarDB-X集群前,您需要进行获取PolarDB-X集群登录密码和端口转发。

  1. kubectl port-forward svc/polardb-x 3306
  1. 在实验页面,单击右上角的图标,创建新的终端二。

  1. 执行如下命令,连接PolarDB-X集群。

说明:

  • 您需要将<PolarDB-X集群登录密码>替换为实际获取到的PolarDB-X集群登录密码。

  • 如遇到mysql: [Warning] Using a password on the command line interface can be insecure.ERROR 2013 (HY000): Lost connection to MySQL server at 'reading initial communication packet', system error: 0报错,请您稍等一分钟,重新转发端口并连接PolarDB-X集群即可。

  1. mysql -h127.0.0.1 -P3306 -upolardbx_root -p<PolarDB-X集群登录密码>

5. 启动业务

本步骤将指导您如何使用Sysbench OLTP场景模拟业务流量。

  1. 准备压测数据。

    1. 执行如下SQL语句,创建压测数据库sysbench_test。
  1. create database sysbench_test;
  1. 输入exit退出数据库。

  1. 执行如下命令,切换到账号galaxykube。
  1. su galaxykube
  1. 执行如下命令,进入到/home/galaxykube目录。
  1. cd
  1. 执行如下命令,创建准备压测数据的sysbench-prepare.yaml文件。
  1. vim sysbench-prepare.yaml
  1. 按i键进入编辑模式,将如下代码复制到文件中,然后按ECS退出编辑模式,输入:wq后按下Enter键保存并退出。
  1. apiVersion: batch/v1
  2. kind: Job
  3. metadata:
  4. name: sysbench-prepare-data-test
  5. namespace: default
  6. spec:
  7. backoffLimit: 0
  8. template:
  9. spec:
  10. restartPolicy: Never
  11. containers:
  12. - name: sysbench-prepare
  13. image: severalnines/sysbench
  14. env:
  15. - name: POLARDB_X_USER
  16. value: polardbx_root
  17. - name: POLARDB_X_PASSWD
  18. valueFrom:
  19. secretKeyRef:
  20. name: polardb-x
  21. key: polardbx_root
  22. command: [ 'sysbench' ]
  23. args:
  24. - --db-driver=mysql
  25. - --mysql-host=$(POLARDB_X_SERVICE_HOST)
  26. - --mysql-port=$(POLARDB_X_SERVICE_PORT)
  27. - --mysql-user=$(POLARDB_X_USER)
  28. - --mysql_password=$(POLARDB_X_PASSWD)
  29. - --mysql-db=sysbench_test
  30. - --mysql-table-engine=innodb
  31. - --rand-init=on
  32. - --max-requests=1
  33. - --oltp-tables-count=1
  34. - --report-interval=5
  35. - --oltp-table-size=160000
  36. - --oltp_skip_trx=on
  37. - --oltp_auto_inc=off
  38. - --oltp_secondary
  39. - --oltp_range_size=5
  40. - --mysql_table_options=dbpartition by hash(`id`)
  41. - --num-threads=1
  42. - --time=3600
  43. - /usr/share/sysbench/tests/include/oltp_legacy/parallel_prepare.lua
  44. - run
  1. 执行如下命令,运行准备压测数据的sysbench-prepare.yaml文件,初始化测试数据。
  1. kubectl apply -f sysbench-prepare.yaml
  1. 执行如下命令,获取任务进行状态。
  1. kubectl get jobs

返回结果如下,请您耐心等待大约1分钟,当任务状态COMPLETIONS为1/1时,表示数据已经初始化完成。

  1. 启动压测流量。

    1. 执行如下命令,创建启动压测的sysbench-oltp.yaml文件。
  1. vim sysbench-oltp.yaml
  1. 按i键进入编辑模式,将如下代码复制到文件中,然后按ECS退出编辑模式,输入:wq后按下Enter键保存并退出。
  1. apiVersion: batch/v1
  2. kind: Job
  3. metadata:
  4. name: sysbench-oltp-test
  5. namespace: default
  6. spec:
  7. backoffLimit: 0
  8. template:
  9. spec:
  10. restartPolicy: Never
  11. containers:
  12. - name: sysbench-oltp
  13. image: severalnines/sysbench
  14. env:
  15. - name: POLARDB_X_USER
  16. value: polardbx_root
  17. - name: POLARDB_X_PASSWD
  18. valueFrom:
  19. secretKeyRef:
  20. name: polardb-x
  21. key: polardbx_root
  22. command: [ 'sysbench' ]
  23. args:
  24. - --db-driver=mysql
  25. - --mysql-host=$(POLARDB_X_SERVICE_HOST)
  26. - --mysql-port=$(POLARDB_X_SERVICE_PORT)
  27. - --mysql-user=$(POLARDB_X_USER)
  28. - --mysql_password=$(POLARDB_X_PASSWD)
  29. - --mysql-db=sysbench_test
  30. - --mysql-table-engine=innodb
  31. - --rand-init=on
  32. - --max-requests=0
  33. - --oltp-tables-count=1
  34. - --report-interval=5
  35. - --oltp-table-size=160000
  36. - --oltp_skip_trx=on
  37. - --oltp_auto_inc=off
  38. - --oltp_secondary
  39. - --oltp_range_size=5
  40. - --mysql-ignore-errors=all
  41. - --num-threads=8
  42. - --time=3600
  43. - /usr/share/sysbench/tests/include/oltp_legacy/oltp.lua
  44. - run
  1. 执行如下命令,运行启动压测的sysbench-oltp.yaml文件,开始压测。
  1. kubectl apply -f sysbench-oltp.yaml
  1. 执行如下命令,查找压测脚本运行的POD。
  1. kubectl get pods

返回结果如下, 以‘sysbench-oltp-test-’开头的POD即为目标POD。

  1. 执行如下命令,查看QPS等流量数据。

说明:您需要将命令中的目标POD替换为以‘sysbench-oltp-test-’开头的POD。

  1. kubectl logs -f 目标POD

6. 体验PolarDB-X高可用能力

经过前面的准备工作,我们已经用PolarDB-X+Sysbench OLTP搭建了一个正在运行的业务系统。本步骤将指导您通过使用kill POD的方式,模拟物理机宕机、断网等导致的节点不可用场景,并观察业务QPS的变化情况。

  1. 在实验页面,单击右上角的图标,创建新的终端三。

  1. kill CN。

    1. 执行如下命令,切换到账号galaxykube。
  1. su galaxykube
  1. 执行如下命令,获取CN POD的名字。
  1. kubectl get pods

返回结果如下,以‘polardb-x-xxxx-cn-default’开头的是CN POD的名字。

  1. 执行如下命令,删除任意一个CN POD。说明:您需要将命令中的替换为任意一个以‘polardb-x-xxxx-cn-default’开头的CN POD的名字。
  1. kubectl delete pod <CN POD>
  1. 执行如下命令,查看CN POD自动创建情况。
  1. kubectl get pods

返回结果如下,您可查看到CN POD已经处于自动创建中。

经过几十秒后,被kill的CN POD自动恢复正常。

  1. 切换至终端二,您可查看kill CN之后业务QPS的情况。

  1. kill DN。

    1. 切换至终端三,执行如下命令,获取DN POD的名字。
  1. kubectl get pods

返回结果如下,以‘polardb-x-xxxx-dn’开头的是DN POD的名字。

  1. 执行如下命令,删除任意一个DN POD。

说明:

  • 您需要将命令中的替换为任意一个以‘polardb-x-xxxx-dn’开头的DN POD的名字。

  • DN每个逻辑节点为三副本架构,也就是说一个DN节点对应3个POD,可任意选择一个进行删除操作。此外,GMS节点是一个特殊角色的DN,同样具备高可用能力,可选择任一POD进行删除。

  1. kubectl delete pod <DN POD>
  1. 执行如下命令,查看DN POD自动创建情况。
  1. kubectl get pods

返回结果如下,您可查看到DN POD已经处于自动创建中。

经过几十秒后,被kill的DN POD自动恢复正常。

  1. 切换至终端二,您可查看kill DN之后业务QPS的情况。

  1. kill CDC。

    1. 切换至终端三,执行如下命令,获取CDC POD的名字。
  1. kubectl get pods

返回结果如下,以‘polardb-x-xxxx-cdc-defaul’开头的是CDC POD的名字。

  1. 执行如下命令,删除任意一个CDC POD。

说明:您需要将命令中的替换为任意一个以‘polardb-x-xxxx-cdc-defaul’开头的CDC POD的名字。

  1. kubectl delete pod <CDC POD>
  1. 执行如下命令,查看CDC POD自动创建情况。
  1. kubectl get pods

返回结果如下,您可查看到CDC POD已经处于自动创建中。

经过几十秒后,被kill的CDC POD自动恢复正常。

  1. 切换至终端二,您可查看kill CDC之后业务QPS的情况。

7. 了解更多

如果您想了解更多有关PolarDB-X高可用知识,详情请参见如下内容。

恭喜完成

阿里云有奖体验:用PolarDB-X搭建一个高可用系统的更多相关文章

  1. SpringCloud学习系列之一 ----- 搭建一个高可用的注册中心(Eureka)

    前言 本篇主要介绍的是SpringCloud相关知识.微服务架构以及搭建一个高可用的服务注册与发现的服务模块(Eureka). SpringCloud介绍 Spring Cloud是在Spring B ...

  2. 基于阿里云SLB/ESS/EIP/ECS/VPC的同城高可用方案演练

    今天基于阿里云SLB/ESS/EIP/ECS/VPC等产品进行了一次同城高可用方案演练: 基本步骤如下: 1. 在华东1创建VPC网络VPC1,在华东1可用区B和G各创建一个虚拟交换机vpc1_swi ...

  3. 搭建一个高可用的redis环境

    一.环境准备 我的环境: Fedora 25 server  64位版 6台: 192.168.10.204 192.168.10.205 192.168.10.206 192.168.10.203 ...

  4. 阿里云有奖体验:如何通过ECS挂载NAS文件系统

    实验简介 本实验提供CentOS系统ECS一台和NAS文件服务. NAS基于POSIX文件接口,天然适配原生操作系统,提供共享访问,同时保证数据一致性和锁互斥.它提供了简单的可扩展文件存储以供与ECS ...

  5. Nginx系列篇四:Nginx+keepalived搭建一个高可用的双机双主热备

    建议:先阅读Nginx+keepalived主从配置,因为此篇是接着上篇开始的 上一篇我们简单的介绍了主从配置及其缺点,我们看一下双主热备配置: 2台Nginx+keepalived互为主备,各自绑定 ...

  6. 阿里云有奖调查结果公布,赠送10个阿里巴巴logo胸针 ...

    4月17日,我们发起了"阿里云有奖调查!赠10个阿里巴巴logo胸针"活动,现经过随机抽奖机抽选出10名幸运同学,每人赠送一枚阿里巴巴胸针.现把获奖同学ID公布如下,请如下同学私信 ...

  7. 高并发&高可用系统的常见应对策略 秒杀等-(阿里)

    对于一个需要处理高并发的系统而言,可以从多个层面去解决这个问题. 1.数据库系统:数据库系统可以采取集群策略以保证某台数据库服务器的宕机不会影响整个系统,并且通过负载均衡策略来降低每一台数据库服务器的 ...

  8. 搭建一个redis高可用系统

    一.单个实例 当系统中只有一台redis运行时,一旦该redis挂了,会导致整个系统无法运行. 单个实例 二.备份 由于单台redis出现单点故障,就会导致整个系统不可用,所以想到的办法自然就是备份( ...

  9. Haproxy+Keepalived搭建Weblogic高可用负载均衡集群

    配置环境说明: KVM虚拟机配置 用途 数量 IP地址 机器名 虚拟IP地址 硬件 内存3G  系统盘20G cpu 4核 Haproxy keepalived 2台 192.168.1.10 192 ...

随机推荐

  1. spring4 mvc + jpa demo

    BEGIN; pom.xml 的引入的相关jar版本配置 <properties> <project.build.sourceEncoding>UTF-8</projec ...

  2. 记一次sql注入的解决方案

    点赞再看,养成习惯,微信搜索「小大白日志」关注这个搬砖人. 本文在公众号文章已同步,还有各种一线大厂面试原题.我的学习系列笔记. 今天业务提了个模糊查询,一听就知道这种问题有坑,肯定涉及到sql注入, ...

  3. VSCODE调试时在cygwin.S中发生段错误

    起因: C++实现矩阵类和向量类 当看了我实现的矩阵类后,一个同学问我: 然后我就试了试1000维,结果运行时在cygwin.S里引发了奇奇怪怪的Segmentation fault,而且这个文件还是 ...

  4. ghostnet论文解析:ghost

    创建日期: 2020-03-02 17:02:54 简介: GhostNet是2020CVPR录用的一篇对卷积操作进行改进的论文.文章的核心内容是Ghost模块(Ghost Module),可以用来替 ...

  5. 跟我学Python图像处理丨获取图像属性、兴趣ROI区域及通道处理

    摘要:本篇文章主要讲解Python调用OpenCV获取图像属性,截取感兴趣ROI区域,处理图像通道. 本文分享自华为云社区<[Python图像处理] 三.获取图像属性.兴趣ROI区域及通道处理 ...

  6. Nginx中FastCGI参数的优化配置实例

    在配置完成Nginx+FastCGI之后,为了保证Nginx下PHP环境的高速稳定运行,需要添加一些FastCGI优化指令.下面给出一个优化实例,将下面代码添加到Nginx主配置文件中的HTTP层级. ...

  7. (AAAI2020 Yao) Graph Few-shot Learning via knowledge transfer

    22-5-13 seminar上和大家分享了这篇文章 [0]Graph few-shot learning via knowledge transfer 起因是在MLNLP的公众号上看到了张初旭老师讲 ...

  8. ThreadLocal夺命11连问

    前言 前一段时间,有同事使用ThreadLocal踩坑了,正好引起了我的兴趣. 所以近期,我抽空把ThreadLocal的源码再研究了一下,越看越有意思,发现里面的东西还真不少. 我把精华浓缩了一下, ...

  9. 《Mybatis 手撸专栏》第8章:把反射用到出神入化

    作者:小傅哥 博客:https://bugstack.cn 沉淀.分享.成长,让自己和他人都能有所收获! 一.前言 为什么,读不懂框架源码? 我们都知道作为一个程序员,如果想学习到更深层次的技术,就需 ...

  10. 用了Scrum越来越累?这三点帮你走出困境

    摘要:你有没有一种感觉,团队用了Scrum之后,工作任务越来越多,加班越来越严重?有?好兄弟,这篇文章正好能帮你~ 本文分享自华为云社区<用了Scrum越来越累?这三点帮你走出困境>,作者 ...