一.知识点:

1.headless services

  NOTE:: 我们在k8s上运行etcd集群,集群间通告身份是使用dns,不能使用pod ip,因为如果pod被重构了ip会变,在这种场景中不能直接使用k8s 的service,因为在集群环境中我们需要直接将service name映射到pod ip,而不是 service ip,这样我们才能完成集群间的身份验证。

2.env

NOTE: pod还没启动之前怎么能知道pod的ip呢?那我们启动etcd时绑定网卡的ip该怎样拿到呢?这时就可以用env将pod ip 以变量方式传给etcd,这样当pod启动后,etcd就通过env拿到了pod ip,  从而绑定到container 的ip

二.架构:

采用三节点的etcd:

分别为:etcd1,etcd2,etcd3

etcd持久数据采用nfs

etcd1.yml

apiVersion: apps/v1
kind: Deployment
metadata:
name: etcd1
labels:
name: etcd1
spec:
replicas:
selector:
matchLabels:
app: etcd1
template:
metadata:
labels:
app: etcd1
spec:
containers:
- name: etcd1
image: myetcd
imagePullPolicy: IfNotPresent
volumeMounts:
- mountPath: /data
name: etcd-data
env:
- name: host_ip
valueFrom:
fieldRef:
fieldPath: status.podIP
command: ["/bin/sh","-c"]
args:
- /tmp/etcd
--name etcd1
--initial-advertise-peer-urls http://${host_ip}:2380
--listen-peer-urls http://${host_ip}:2380
--listen-client-urls http://${host_ip}:2379,http://127.0.0.1:2379
--advertise-client-urls http://${host_ip}:2379
--initial-cluster-token etcd-cluster-
--initial-cluster etcd1=http://etcd1:2380,etcd2=http://etcd2:2380,etcd3=http://etcd3:2380
--initial-cluster-state new
--data-dir=/data volumes:
- name: etcd-data
nfs:
server: 192.168.85.139
path: /data/v1

etcd2.yml

apiVersion: apps/v1
kind: Deployment
metadata:
name: etcd2
labels:
name: etcd2
spec:
replicas:
selector:
matchLabels:
app: etcd2
template:
metadata:
labels:
app: etcd2
spec:
containers:
- name: etcd2
image: myetcd
imagePullPolicy: IfNotPresent
volumeMounts:
- mountPath: /data
name: etcd-data
env:
- name: host_ip
valueFrom:
fieldRef:
fieldPath: status.podIP command: ["/bin/sh","-c"]
args:
- /tmp/etcd
--name etcd2
--initial-advertise-peer-urls http://${host_ip}:2380
--listen-peer-urls http://${host_ip}:2380
--listen-client-urls http://${host_ip}:2379,http://127.0.0.1:2379
--advertise-client-urls http://${host_ip}:2379
--initial-cluster-token etcd-cluster-
--initial-cluster etcd1=http://etcd1:2380,etcd2=http://etcd2:2380,etcd3=http://etcd3:2380
--initial-cluster-state new
--data-dir=/data volumes:
- name: etcd-data
nfs:
server: 192.168.85.139
path: /data/v2

etcd3.yml

apiVersion: apps/v1
kind: Deployment
metadata:
name: etcd3
labels:
name: etcd3
spec:
replicas:
selector:
matchLabels:
app: etcd3
template:
metadata:
labels:
app: etcd3
spec:
containers:
- name: etcd3
image: myetcd
imagePullPolicy: IfNotPresent
volumeMounts:
- mountPath: /data
name: etcd-data
env:
- name: host_ip
valueFrom:
fieldRef:
fieldPath: status.podIP
command: ["/bin/sh","-c"]
args:
- /tmp/etcd
--name etcd3
--initial-advertise-peer-urls http://${host_ip}:2380
--listen-peer-urls http://${host_ip}:2380
--listen-client-urls http://${host_ip}:2379,http://127.0.0.1:2379
--advertise-client-urls http://${host_ip}:2379
--initial-cluster-token etcd-cluster-
--initial-cluster etcd1=http://etcd1:2380,etcd2=http://etcd2:2380,etcd3=http://etcd3:2380
--initial-cluster-state new
--data-dir=/data volumes:
- name: etcd-data
nfs:
server: 192.168.85.139
path: /data/v3

etcd1-svc.yml

apiVersion: v1
kind: Service
metadata:
name: etcd1
spec:
clusterIP: None
ports:
- name: client
port:
targetPort:
- name: message
port:
targetPort:
selector:
app: etcd1

etcd2-svc.yml

apiVersion: v1
kind: Service
metadata:
name: etcd2
spec:
clusterIP: None
ports:
- name: client
port:
targetPort:
- name: message
port:
targetPort:
selector:
app: etcd2

etcd3-svc.yml

apiVersion: v1
kind: Service
metadata:
name: etcd3
spec:
clusterIP: None
ports:
- name: client
port:
targetPort:
- name: message
port:
targetPort:
selector:
app: etcd3

在任意节点查看etcd状态:

[root@node1 test]# kubectl exec etcd1-79bdcb47c9-fwqps -- /tmp/etcdctl cluster-health
member 876043ef79ada1ea is healthy: got healthy result from http://10.244.1.113:2379
member 99eab3685d8363a1 is healthy: got healthy result from http://10.244.1.111:2379
member dcb68c82481661be is healthy: got healthy result from http://10.244.1.112:2379

提供外部访问:

apiVersion: v1
kind: Service
metadata:
name: etcd-external
spec:
type: NodePort
ports:
- name: client
port:
targetPort:
nodePort:
- name: message
port:
targetPort:
nodePort:
selector:
app: etcd1

k8s集群之上运行etcd集群的更多相关文章

  1. K8s二进制部署单节点 etcd集群,flannel网络配置 ——锥刺股

    K8s 二进制部署单节点 master    --锥刺股 k8s集群搭建: etcd集群 flannel网络插件 搭建master组件 搭建node组件 1.部署etcd集群 2.Flannel 网络 ...

  2. 使用k8s operator安装和维护etcd集群

    关于Kubernetes Operator这个新生事物,可以参考下文来了解这一技术的来龙去脉: https://yq.aliyun.com/articles/685522?utm_content=g_ ...

  3. ETCD:在容器中运行etcd集群

    原文地址:Docker container 以下指南显示了如何使用静态引导过程在rkt和Docker上运行etcd. rkt 运行单节点的etcd 以下rkt run命令将在端口2379上公开etcd ...

  4. k8s集群中遇到etcd集群故障的排查思路

    一次在k8s集群中创建实例发现etcd集群状态出现连接失败状况,导致创建实例失败.于是排查了一下原因. 问题来源 下面是etcd集群健康状态: 1 2 3 4 5 6 7 8 9 10 11 [roo ...

  5. Kubernetes集群搭建之Etcd集群配置篇

    介绍 etcd 是一个分布式一致性k-v存储系统,可用于服务注册发现与共享配置,具有以下优点. 简单 : 相比于晦涩难懂的paxos算法,etcd基于相对简单且易实现的raft算法实现一致性,并通过g ...

  6. Kubernetes集群部署之三ETCD集群部署

    kuberntes 系统使用 etcd 存储所有数据,本文档介绍部署一个三节点高可用 etcd 集群的步骤,这三个节点复用 kubernetes 集群机器k8s-master.k8s-node-1.k ...

  7. k8s基础(3)etcd集群

    下载安装 https://github.com/coreos/etcd/releases 在这网页,可以看到有多个版本共选择. 下载3.25 解压后, cd etcd-v3.2.5-linux-amd ...

  8. etcd集群部署与遇到的坑

    在k8s集群中使用了etcd作为数据中心,在实际操作中遇到了一些坑.今天记录一下,为了以后更好操作. ETCD参数说明 —data-dir 指定节点的数据存储目录,这些数据包括节点ID,集群ID,集群 ...

  9. etcd集群部署与遇到的坑(转)

    原文 https://www.cnblogs.com/breg/p/5728237.html etcd集群部署与遇到的坑 在k8s集群中使用了etcd作为数据中心,在实际操作中遇到了一些坑.今天记录一 ...

随机推荐

  1. Spring cloud微服务安全实战-6-10sentinel之热点和系统规则

    热点规则 热点就是经常访问的数据.很多时候我们希望争对某一些热点数据,然后来进行限制.比如说商品的信息这个服务,我们给它做一个限流,qps是100,某一天我想做一个秒杀活动,可能会有很大的流量,这个时 ...

  2. Grafana修改背景色

    grafana默认主题色是黑底白字,我们将它修改成白底黑字: in /etc/grafana/grafana.ini uncomment line and set default_theme = li ...

  3. vscode插件Power Mode

    Power Mode官网 设置里添加 "powermode.enabled": true, "powermode.presets": "flames& ...

  4. Elasticsearch集群+kibana

    目录: 软件及环境准备 JDK安装配置 ElasticSearch安装及配置 启动ES集群 es常规操作 安装及配置ES前端图形化操作工具 kibana汉化及时区修改 ElasticSearch和ki ...

  5. liunx mysql数据库目录迁移

    1.查看mysql安装目录 从目录etc/my.cnf中查看安装目录 2.进入mysql目录,停止mysql服务 命令: cd usr/local/mysql 命令:service mysql sto ...

  6. 图片url地址的生成获取方法

    在写博客插入图片时,许多时候需要提供图片的url地址.作为菜鸡的我,自然是一脸懵逼.那么什么是所谓的url地址呢?又该如何获取图片的url地址呢? 首先来看一下度娘对url地址的解释:url是统一资源 ...

  7. Socket简单Demo

    Socket协议网上介绍的有很多了,就不在画蛇添足了,本文主要编写一个小Demo,介绍下它具体实现 一:Socket服务器端 package com.founderit; import java.io ...

  8. SpringBoot 常用配置 静态资源访问配置/内置tomcat虚拟文件映射路径

    Springboot 再模板引擎中引入Js等文件,出现服务器拒绝访问的错误,需要配置过滤器 静态资源访问配置 @Configuration @EnableWebMvc public class Sta ...

  9. Python接口自动化基础---get请求

    1.没有参数的get请求 import requests r=requests.get('http://docs.python-requests.org/zh_CN/latest/user/quick ...

  10. idea: unable to import maven project

    新搭建的maven环境,使用idea创建maven项目时,一直提示 unable to import maven project,百度良久未解决 有说关闭防火前的,亲测无效,后看到说是maven-3. ...