一、Kubernetes介绍与特性

1.1、kubernetes是什么

官方网站:http://www.kubernetes.io

• Kubernetes是Google在2014年开源的一个容器集群管理系统,Kubernetes简称K8S。
• K8S用于容器化应用程序的部署,扩展和管理。
• K8S提供了容器编排,资源调度,弹性伸缩,部署管理,服务发现等一系列功能。
• Kubernetes目标是让部署容器化应用简单高效。

1.2、kubernetes是什么

一个容器平台
一个微服务平台
便捷式云平台

1.3、kubernetes特性

- 自我修复
在节点故障时重新启动失败的容器,替换和重新部署,保证预期的副本数量;杀死健康检查失败的容器,并且在未准备好之前不会处理客户端请求,确保线上服务不中断。
- 弹性伸缩
使用命令、UI或者基于CPU使用情况自动快速扩容和缩容应用程序实例,保证应用业务高峰并发时的高可用性;业务低峰时回收资源,以最小成本运行服务。
- 自动部署和回滚
K8S采用滚动更新策略更新应用,一次更新一个Pod,而不是同时删除所有Pod,如果更新过程中出现问题,将回滚更改,确保升级不受影响业务。
- 服务发现和负载均衡
K8S为多个容器提供一个统一访问入口(内部IP地址和一个DNS名称),并且负载均衡关联的所有容器,使得用户无需考虑容器IP问题。
- 机密和配置管理
管理机密数据和应用程序配置,而不需要把敏感数据暴露在镜像里,提高敏感数据安全性。并可以将一些常用的配置存储在K8S中,方便应用程序使用。
- 存储编排
挂载外部存储系统,无论是来自本地存储,公有云(如AWS),还是网络存储(如NFS、GlusterFS、Ceph)都作为集群资源的一部分使用,极大提高存储使用灵活性。
- 批处理
提供一次性任务,定时任务;满足批量数据处理和分析的场景。

二、kubernetes组织架构介绍

2.1、整体架构组件详解

1、如图,有三个节点一个master节点和两个node节点。
2、Master有三个组件:
    - API server:K8S提供的一个统一的入口,提供RESTful API访问方式接口服务。
      - Auth:认证授权,判断是否有权限访问
      - Etcd:存储的数据库、存储认证信息等,K8S状态,节点信息等
    - scheduler:集群的调度,将集群分配到哪个节点内
    - controller manager: 控制器,来控制来做哪些任务,管理 pod service 控制器等
  - Kubectl:管理工具,直接管理API Server,期间会有认证授权。
3、Node有两个组件:
    - kubelet:接收K8S下发的任务,管理容器创建,生命周期管理等,将一个pod转换成一组容器。
    - kube-proxy:Pod网络代理,四层负载均衡,对外访问
      -  用户 -> 防火墙 -> kube-proxy -> 业务
    Pod:K8S最小单元
      - Container:运行容器的环境,运行容器引擎
        - Docker

2.2、集群管理流程及核心概念

1、 管理集群流程

2、Kubernetes核心概念

Pod
  • 最小部署单元
  • 一组容器的集合
  • 一个Pod中的容器共享网络命名空间
  • Pod是短暂的
Controllers
  • ReplicaSet : 确保预期的Pod副本数量
  • Deployment : 无状态应用部署
  • StatefulSet : 有状态应用部署
  • DaemonSet : 确保所有Node运行同一个Pod
  • Job : 一次性任务
  • Cronjob : 定时任务
  注:更高级层次对象,部署和管理Pod

Service
  • 防止Pod失联
  • 定义一组Pod的访问策略

Label : 标签,附加到某个资源上,用于关联对象、查询和筛选

Namespaces : 命名空间,将对象逻辑上隔离

Annotations :注释

三、Kubernetes 部署

  • # K8S 相关服务包
  • 百度云下载:https://pan.baidu.com/s/1d1zqoil3pfeThC-v45bWkg
  • 密码:0ssx

3.1 服务版本及架构说明

服务版本

  • centos:7.4
  • etcd-v3.3.10
  • flannel-v0.10.0
  • kubernetes-1.12.1
  • nginx-1.16.1
  • keepalived-1.3.5
  • docker-19.03.1

单Master架构

  • k8s Master:172.16.105.220
  • k8s Node:172.16.105.230、172.16.105.213
  • etcd:172.16.105.220、172.16.105.230、172.16.105.213

双Master+Nginx+Keepalived

  • k8s Master1:192.168.1.108
  • k8s Master2:192.168.1.109
  • k8s Node3:192.168.1.110
  • k8s Node4:192.168.1.111
  • etc:192.168.1.108、192.168.1.109、192.168.1.110、192.168.1.111
  • Nginx+keepalived1:192.168.1.112
  • Nginx+keepalived2:192.168.1.113
  • vip:192.168.1.100

3.2、部署kubernetes准备

1、关闭防火墙

  1. systemctl stop firewalld.service

2、关闭SELINUX

  1. setenforce

3、修改主机名

  1. vim /etc/hostname
  2. hostname ****

4、同步时间

  1. ntpdate time.windows.com

5、环境变量

注:下面配置所有用到的k8s最好部署环境变量

3.3、Etcd 数据库集群部署

1、部署 Etcd 自签证书 

1、创建k8s及证书目录

  1. mkdir ~/k8s && cd ~/k8s
  2. mkdir k8s-cert
  3. mkdir etcd-cert
  4. cd etcd-cert

2、安装cfssl生成证书工具

  1. # 通过选项生成证书
  2. curl -L https://pkg.cfssl.org/R1.2/cfssl_linux-amd64 -o /usr/local/bin/cfssl
  3. # 通过json生成证书
  4. curl -L https://pkg.cfssl.org/R1.2/cfssljson_linux-amd64 -o /usr/local/bin/cfssljson
  5. # 查看证书信息
  6. curl -L https://pkg.cfssl.org/R1.2/cfssl-certinfo_linux-amd64 -o /usr/local/bin/cfssl-certinfo
  7. # 添加执行权限
  8. chmod +x /usr/local/bin/cfssl /usr/local/bin/cfssljson /usr/local/bin/cfssl-certinfo

3、执行命令生成证书使用的json文件1

  1. vim ca-config.json
  2. {
  3. "signing": {
  4. "default": {
  5. "expiry": "87600h"
  6. },
  7. "profiles": {
  8. "www": {
  9. "expiry": "87600h",
  10. "usages": [
  11. "signing",
  12. "key encipherment",
  13. "server auth",
  14. "client auth"
  15. ]
  16. }
  17. }
  18. }
  19. }

vim ca-config.json

4、执行命令生成证书使用的json文件2

  1. {
  2. "CN": "etcd CA",
  3. "key": {
  4. "algo": "rsa",
  5. "size": 2048
  6. },
  7. "names": [
  8. {
  9. "C": "CN",
  10. "L": "Beijing",
  11. "ST": "Beijing"
  12. }
  13. ]
  14. }

vim ca-csr.json

5、执行命令通过json文件生成CA根证书、会在当前目录生成ca.pem和ca-key.pem

  1. cfssl gencert -initca ca-csr.json | cfssljson -bare ca -

6、执行命令生成Etcd域名证书、首先创建json文件后生成

  1. {
  2. "CN": "etcd",
  3. "hosts": [
  4. "172.16.105.220",
  5. "172.16.105.230",
  6. "172.16.105.213"
  7. ],
  8. "key": {
  9. "algo": "rsa",
  10. "size": 2048
  11. },
  12. "names": [
  13. {
  14. "C": "CN",
  15. "L": "BeiJing",
  16. "ST": "BeiJing"
  17. }
  18. ]
  19. }

vim server-csr.json

注:hosts下面跟etcd部署服务的IP。

7、执行命令办法Etcd域名证书、当前目录下生成 server.pem 与 server-key.pem

  1. cfssl gencert -ca=ca.pem -ca-key=ca-key.pem -config=ca-config.json -profile=www server-csr.json | cfssljson -bare server

8、查看创建的证书

  1. ls *pem
  2. ca-key.pem ca.pem server-key.pem server.pem

2、部署 Etcd 数据库集群

  • 使用etcd版本:etcd-v3.3.10-linux-amd64.tar.gz
  • 二进制包下载地址:https://github.com/coreos/etcd/releases/tag/v3.2.12

1、下载本地后进行解压、进入到解压目录

  1. tar zxvf etcd-v3.3.10-linux-amd64.tar.gz
  2. cd etcd-v3.3.10-linux-amd64

2、为了方便管理etcd创建几个目录、并移动文件

  1. mkdir /opt/etcd/{cfg,bin,ssl} -p
  2. mv etcd etcdctl /opt/etcd/bin/

3、创建编写etcd配置文件

  1. #[Member]
  2. ETCD_NAME="etcd01"
  3. ETCD_DATA_DIR="/var/lib/etcd/default.etcd"
  4. ETCD_LISTEN_PEER_URLS="https://172.16.105.220:2380"
  5. ETCD_LISTEN_CLIENT_URLS="https://172.16.105.220:2379"
  6.  
  7. #[Clustering]
  8. ETCD_INITIAL_ADVERTISE_PEER_URLS="https://172.16.105.220:2380"
  9. ETCD_ADVERTISE_CLIENT_URLS="https://172.16.105.220:2379"
  10. ETCD_INITIAL_CLUSTER="etcd01=https://172.16.105.220:2380,etcd02=https://172.16.105.230:2380,etcd03=https://172.16.105.213:2380"
  11. ETCD_INITIAL_CLUSTER_TOKEN="etcd-cluster"
  12. ETCD_INITIAL_CLUSTER_STATE="new"

vim /opt/etcd/cfg/etcd

  1. · ETCD_NAME 节点名称
  2. · ETCD_DATA_DIR 数据目录
  3. · ETCD_LISTEN_PEER_URLS 集群通信监听地址
  4. · ETCD_LISTEN_CLIENT_URLS 客户端访问监听地址
  5. · ETCD_INITIAL_ADVERTISE_PEER_URLS 集群通告地址
  6. · ETCD_ADVERTISE_CLIENT_URLS 客户端通告地址
  7. · ETCD_INITIAL_CLUSTER 集群节点地址
  8. · ETCD_INITIAL_CLUSTER_TOKEN 集群Token
  9. · ETCD_INITIAL_CLUSTER_STATE 加入集群的当前状态,new是新集群,existing表示加入已有集群

参数含义

4、创建systemd 管理 etcd

  1. [Unit]
  2. Description=Etcd Server
  3. After=network.target
  4. After=network-online.target
  5. Wants=network-online.target
  6.  
  7. [Service]
  8. Type=notify
  9. EnvironmentFile=/opt/etcd/cfg/etcd
  10. ExecStart=/opt/etcd/bin/etcd \
  11. --name=${ETCD_NAME} \
  12. --data-dir=${ETCD_DATA_DIR} \
  13. --listen-peer-urls=${ETCD_LISTEN_PEER_URLS} \
  14. --listen-client-urls=${ETCD_LISTEN_CLIENT_URLS},http://127.0.0.1:2379 \
  15. --advertise-client-urls=${ETCD_ADVERTISE_CLIENT_URLS} \
  16. --initial-advertise-peer-urls=${ETCD_INITIAL_ADVERTISE_PEER_URLS} \
  17. --initial-cluster=${ETCD_INITIAL_CLUSTER} \
  18. --initial-cluster-token=${ETCD_INITIAL_CLUSTER_TOKEN} \
  19. --initial-cluster-state=new \
  20. --cert-file=/opt/etcd/ssl/server.pem \
  21. --key-file=/opt/etcd/ssl/server-key.pem \
  22. --peer-cert-file=/opt/etcd/ssl/server.pem \
  23. --peer-key-file=/opt/etcd/ssl/server-key.pem \
  24. --trusted-ca-file=/opt/etcd/ssl/ca.pem \
  25. --peer-trusted-ca-file=/opt/etcd/ssl/ca.pem
  26. Restart=on-failure
  27. LimitNOFILE=65536
  28.  
  29. [Install]
  30. WantedBy=multi-user.target

vim /usr/lib/systemd/system/etcd.service

5、将证书文件copy到指定目录

  1. cp /root/k8s/etcd-cert/{ca,ca-key,server-key,server}.pem /opt/etcd/ssl/

6、启动 etcd、并设置开机自启动

  1. systemctl daemon-reload
  2. systemctl enable etcd.service
  3. systemctl start etcd.service

7、开启后etcd可能会等待其他两个节点等待,需要讲其他两个节点etcd开启

  1. # 1、将目录etcd配置目录 copy 到两个节点内
  2. scp -r /opt/etcd/ root@172.16.105.230:/opt/
  3. scp -r /opt/etcd/ root@172.16.105.213:/opt/
  4. # 2、将启动服务配置文件 copy 到两个节点内
  5. scp -r /usr/lib/systemd/system/etcd.service root@172.16.105.230:/usr/lib/systemd/system/
  6. scp -r /usr/lib/systemd/system/etcd.service root@172.16.105.213:/usr/lib/systemd/system/

8、修改 两个节点 etcd /opt/etcd/cfg/etcd 配置文件

  1. #[Member]
  2. ETCD_NAME="etcd02"
  3. ETCD_DATA_DIR="/var/lib/etcd/default.etcd"
  4. ETCD_LISTEN_PEER_URLS="https://172.16.105.230:2380"
  5. ETCD_LISTEN_CLIENT_URLS="https://172.16.105.230:2379"
  6.  
  7. #[Clustering]
  8. ETCD_INITIAL_ADVERTISE_PEER_URLS="https://172.16.105.230:2380"
  9. ETCD_ADVERTISE_CLIENT_URLS="https://172.16.105.230:2379"
  10. ETCD_INITIAL_CLUSTER="etcd01=https://172.16.105.220:2380,etcd02=https://172.16.105.230:2380,etcd03=https://172.16.105.213:2380"
  11. ETCD_INITIAL_CLUSTER_TOKEN="etcd-cluster"
  12. ETCD_INITIAL_CLUSTER_STATE="new"

节点:172.16.105.230 配置文件

  1. #[Member]
  2. ETCD_NAME="etcd03"
  3. ETCD_DATA_DIR="/var/lib/etcd/default.etcd"
  4. ETCD_LISTEN_PEER_URLS="https://172.16.105.213:2380"
  5. ETCD_LISTEN_CLIENT_URLS="https://172.16.105.213:2379"
  6.  
  7. #[Clustering]
  8. ETCD_INITIAL_ADVERTISE_PEER_URLS="https://172.16.105.213:2380"
  9. ETCD_ADVERTISE_CLIENT_URLS="https://172.16.105.213:2379"
  10. ETCD_INITIAL_CLUSTER="etcd01=https://172.16.105.220:2380,etcd02=https://172.16.105.230:2380,etcd03=https://172.16.105.213:2380"
  11. ETCD_INITIAL_CLUSTER_TOKEN="etcd-cluster"
  12. ETCD_INITIAL_CLUSTER_STATE="new"

节点:172.16.105.213 配置文件

9、两个节点启动服务、并设置开机自启动

  1. systemctl daemon-reload
  2. systemctl enable etcd.service
  3. systemctl start etcd.service

10、查看主etcd日志

  1. Aug 6 11:13:54 izbp14x4an2p4z7awyek7mz etcd: updating the cluster version from 3.0 to 3.3
  2. Aug 6 11:13:54 izbp14x4an2p4z7awyek7mz etcd: updated the cluster version from 3.0 to 3.3
  3. Aug 6 11:13:54 izbp14x4an2p4z7awyek7mz etcd: enabled capabilities for version 3.3

tail /var/log/messages -f

11、查看端口启动

  1. tcp 0 0 172.16.105.220:2379 0.0.0.0:* LISTEN 13021/etcd
  2. tcp 0 0 127.0.0.1:2379 0.0.0.0:* LISTEN 13021/etcd
  3. tcp 0 0 172.16.105.220:2380 0.0.0.0:* LISTEN 13021/etcd

netstat -lnpt

12、查看进程使用

  1. root 13021 1.1 1.4 10541908 28052 ? Ssl 11:13 0:02 /opt/etcd/bin/etcd --name=etcd01 --data-dir=/var/lib/etcd/default.etcd --listen-peer-urls=https://172.16.105.220:2380 --listen-client-urls=https://172.16.105.220:2379,http://127.0.0.1:2379 --advertise-client-urls=https://172.16.105.220:2379 --initial-advertise-peer-urls=https://172.16.105.220:2380 --initial-cluster=etcd01=https://172.16.105.220:2380,etcd02=https://172.16.105.230:2380,etcd03=https://172.16.105.213:2380 --initial-cluster-token=etcd-cluster --initial-cluster-state=new --cert-file=/opt/etcd/ssl/server.pem --key-file=/opt/etcd/ssl/server-key.pem --peer-cert-file=/opt/etcd/ssl/server.pem --peer-key-file=/opt/etcd/ssl/server-key.pem --trusted-ca-file=/opt/etcd/ssl/ca.pem --peer-trusted-ca-file=/opt/etcd/ssl/ca.pem

ps -aux | grep etcd

13、通过工具验证etcd

  1. # 添加证书文件绝对路径与etcd集群节点地址
  2. /opt/etcd/bin/etcdctl --ca-file=/opt/etcd/ssl/ca.pem --cert-file=/opt/etcd/ssl/server.pem --key-file=/opt/etcd/ssl/server-key.pem --endpoints="https://172.16.105.220:2379,https://172.16.105.230:2379,https://172.16.105.213:2379" cluster-health
  1. member 1d5fcc16a8c9361e is healthy: got healthy result from https://172.16.105.220:2379
  2. member 7b28469233594fbd is healthy: got healthy result from https://172.16.105.230:2379
  3. member b2e216e703023e21 is healthy: got healthy result from https://172.16.105.213:2379
  4. cluster is healthy

输出如下表示没问题:

其他:

  1. # 删除每个节点data文件重新启动
  2. rm -rf /var/lib/etcd/default.etcd

报错:etcd: request cluster ID mismatch

3.4、Node 部署 Docker 容器应用 

1、安装依赖包

  1. yum install -y yum-utils device-mapper-persistent-data lvm2

2、配置官方源

  1. yum-config-manager --add-repo http://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo

3、安装docker最新版

  1. yum -y install docker-ce

4、配置docker仓库加速器

  1. 官网:https://www.daocloud.io/mirror
  2. 加速命令:curl -sSL https://get.daocloud.io/daotools/set_mirror.sh | sh -s http://f1361db2.m.daocloud.io

5、重启docker

  1. systemctl restart docker

6、查看docker版本:docker version

  1. Version: 19.03.1

3.5、Node 部署 Flannel 网络模型

  • 二进制包:https://github.com/coreos/flannel/releases

1、写入分配的子网到etcd、提供flanneld使用。

  1. /opt/etcd/bin/etcdctl --ca-file=/opt/etcd/ssl/ca.pem --cert-file=/opt/etcd/ssl/server.pem --key-file=/opt/etcd/ssl/server-key.pem --endpoints="https://172.16.105.220:2379,https://172.16.105.230:2379,https://172.16.105.213:2379" set /coreos.com/network/config '{ "Network": "172.17.0.0/16", "Backend": {"Type": "vxlan"}}'

2、查看创建网络信息

  1. /opt/etcd/bin/etcdctl --ca-file=/opt/etcd/ssl/ca.pem --cert-file=/opt/etcd/ssl/server.pem --key-file=/opt/etcd/ssl/server-key.pem --endpoints="https://172.16.105.220:2379,https://172.16.105.230:2379,https://172.16.105.213:2379" get /coreos.com/network/config

3、下载完flannel包后进行解压

  1. tar -xvzf flannel-v0.10.0-linux-amd64.tar.gz

4、创建目录将文件存放到指定目录下

  1. mkdir -p /opt/kubernetes/{bin,cfg,ssl}
  2. mv flanneld mk-docker-opts.sh /opt/kubernetes/bin/

5、创建flanneld配置文件

  1. FLANNEL_OPTIONS="--etcd-endpoints=https://172.16.105.220:2379,https://172.16.105.230:2379,https://172.16.105.213:2379 -etcd-cafile=/opt/etcd/ssl/ca.pem -etcd-certfile=/opt/etcd/ssl/server.pem -etcd-keyfile=/opt/etcd/ssl/server-key.pem"

vim /opt/kubernetes/cfg/flanneld

6、创建systemd管理flannel

  1. [Unit]
  2. Description=Flanneld overlay address etcd agent
  3. After=network-online.target network.target
  4. Before=docker.service
  5.  
  6. [Service]
  7. Type=notify
  8. EnvironmentFile=/opt/kubernetes/cfg/flanneld
  9. ExecStart=/opt/kubernetes/bin/flanneld --ip-masq $FLANNEL_OPTIONS
  10. ExecStartPost=/opt/kubernetes/bin/mk-docker-opts.sh -k DOCKER_NETWORK_OPTIONS -d /run/flannel/subnet.env
  11. Restart=on-failure
  12.  
  13. [Install]
  14. WantedBy=multi-user.target

vim /usr/lib/systemd/system/flanneld.service

7、配置Docker启动指定网段

  1. [Unit]
  2. Description=Docker Application Container Engine
  3. Documentation=https://docs.docker.com
  4. After=network-online.target firewalld.service
  5. Wants=network-online.target
  6.  
  7. [Service]
  8. Type=notify
  9. EnvironmentFile=/run/flannel/subnet.env
  10. ExecStart=/usr/bin/dockerd $DOCKER_NETWORK_OPTIONS
  11. ExecReload=/bin/kill -s HUP $MAINPID
  12. LimitNOFILE=infinity
  13. LimitNPROC=infinity
  14. LimitCORE=infinity
  15. TimeoutStartSec=0
  16. Delegate=yes
  17. KillMode=process
  18. Restart=on-failure
  19. StartLimitBurst=3
  20. StartLimitInterval=60s
  21.  
  22. [Install]
  23. WantedBy=multi-user.target

vim /usr/lib/systemd/system/docker.service

8、启动flannel与docker、设置开机自启动

  1. systemctl daemon-reload
  2. systemctl enable flanneld
  3. systemctl start flanneld
  4. systemctl restart docker

9、确认 docker 与 flannel 再同网段

  1. docker0: flags=4099<UP,BROADCAST,MULTICAST> mtu 1500
  2. inet 172.17.26.1 netmask 255.255.255.0 broadcast 172.17.26.255
  3. flannel.1: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1450
  4. inet 172.17.26.0 netmask 255.255.255.255 broadcast 0.0.0.0

ifconfig

10、查看路由信息

  1. # 1、查看生成的文件
  2. /opt/etcd/bin/etcdctl --ca-file=/opt/etcd/ssl/ca.pem --cert-file=/opt/etcd/ssl/server.pem --key-file=/opt/etcd/ssl/server-key.pem --endpoints="https://172.16.105.220:2379,https://172.16.105.230:2379,https://172.16.105.213:2379" ls /coreos.com/network/subnets/
  1. /coreos.com/network/subnets/172.17.59.0-24
  2. /coreos.com/network/subnets/172.17.23.0-24
  3. /coreos.com/network/subnets/172.17.26.0-24

输出:

  1. # 2、查看指定路由文件
  2. /opt/etcd/bin/etcdctl --ca-file=/opt/etcd/ssl/ca.pem --cert-file=/opt/etcd/ssl/server.pem --key-file=/opt/etcd/ssl/server-key.pem --endpoints="https://172.16.105.220:2379,https://172.16.105.230:2379,https://172.16.105.213:2379" get /coreos.com/network/subnets/172.17.59.0-24
  1. # 对应关系
  2. {"PublicIP":"172.16.105.220","BackendType":"vxlan","BackendData":{"VtepMAC":"ae:6b:20:4a:bd:ed"}}

输出:

3.6、部署 kubernetes 单Master集群

  • 下载二进制包:https://github.com/kubernetes/kubernetes/blob/master/CHANGELOG-1.12.md
  • 下载这个包(kubernetes-server-linux-amd64.tar.gz)就够了,包含了所需的所有组件。

1、生成证书
1.1、执行命令生成证书使用的json文件1

  1. {
  2. "signing": {
  3. "default": {
  4. "expiry": "87600h"
  5. },
  6. "profiles": {
  7. "kubernetes": {
  8. "expiry": "87600h",
  9. "usages": [
  10. "signing",
  11. "key encipherment",
  12. "server auth",
  13. "client auth"
  14. ]
  15. }
  16. }
  17. }
  18. }

vim ca-config.json

1.2、执行命令生成证书使用的json文件2

  1. {
  2. "CN": "kubernetes",
  3. "key": {
  4. "algo": "rsa",
  5. "size": 2048
  6. },
  7. "names": [
  8. {
  9. "C": "CN",
  10. "L": "Beijing",
  11. "ST": "Beijing",
  12. "O": "k8s",
  13. "OU": "System"
  14. }
  15. ]
  16. }

vim ca-csr.json

1.3、执行命令生成CA证书

  1. cfssl gencert -initca ca-csr.json | cfssljson -bare ca -

1.4、执行命令生成证书使用的json文件、注:添加所有使用到k8s的节点IP。

  1. {
  2. "CN": "kubernetes",
  3. "hosts": [
  4. "10.0.0.1",
  5. "127.0.0.1",
  6. "172.16.105.220",
  7. "172.16.105.210",
  8. "多选添加IP,Node节点不用添加",
  9. "kubernetes",
  10. "kubernetes.default",
  11. "kubernetes.default.svc",
  12. "kubernetes.default.svc.cluster",
  13. "kubernetes.default.svc.cluster.local"
  14. ],
  15. "key": {
  16. "algo": "rsa",
  17. "size": 2048
  18. },
  19. "names": [
  20. {
  21. "C": "CN",
  22. "L": "BeiJing",
  23. "ST": "BeiJing",
  24. "O": "k8s",
  25. "OU": "System"
  26. }
  27. ]
  28. }

vim server-csr.json

1.5、执行命令生成 apiserver 证书

  1. cfssl gencert -ca=ca.pem -ca-key=ca-key.pem -config=ca-config.json -profile=kubernetes server-csr.json | cfssljson -bare server

1.6、执行命令生成证书使用的json文件生成 kube-proxy 证书

  1. {
  2. "CN": "system:kube-proxy",
  3. "hosts": [],
  4. "key": {
  5. "algo": "rsa",
  6. "size": 2048
  7. },
  8. "names": [
  9. {
  10. "C": "CN",
  11. "L": "BeiJing",
  12. "ST": "BeiJing",
  13. "O": "k8s",
  14. "OU": "System"
  15. }
  16. ]
  17. }

vim kube-proxy-csr.json

1.7、执行命令生成 kube-proxy 证书

  1. cfssl gencert -ca=ca.pem -ca-key=ca-key.pem -config=ca-config.json -profile=kubernetes kube-proxy-csr.json | cfssljson -bare kube-proxy

1.8、查看所有生成证书

  1. ca-key.pem ca.pem kube-proxy-key.pem kube-proxy.pem server-key.pem server.pem

ls *pem

2、部署Master apiserver 组件

1、下载到k8s目录解压、进入目录

  1. tar -xzvf kubernetes-server-linux-amd64.tar.gz
  2. cd kubernetes/server/bin/

2、创建目录

  1. mkdir /opt/kubernetes/{bin,cfg,ssl,logs} -p

3、将二进制文件导入到相应目录下

  1. cp kube-apiserver kube-scheduler kube-controller-manager kubectl /opt/kubernetes/bin

4、将生成的证书文件存入到指定文件

  1. cp ca.pem ca-key.pem server.pem server-key.pem /opt/kubernetes/ssl/

5、创建 token 文件

  1. 674c457d4dcf2eefe4920d7dbb6b0ddc,kubelet-bootstrap,10001,"system:kubelet-bootstrap"

vim /opt/kubernetes/cfg/token.csv

  1. 第一列:随机字符串,自己可生成
  2. 第二列:用户名
  3. 第三列:UID
  4. 第四列:用户组

说明

6、创建 apiserver 配置文件、确保配置好生成证书,确保连接etcd

  1. KUBE_APISERVER_OPTS="--logtostderr=false \
  2. --log-dir=/opt/kubernetes/logs \
  3. --v=4 \
  4. --etcd-servers=https://172.16.105.220:2379,https://172.16.105.230:2379,https://172.16.105.213:2379 \
  5. --bind-address=172.16.105.220 \
  6. --secure-port=6443 \
  7. --advertise-address=172.16.105.220 \
  8. --allow-privileged=true \
  9. --service-cluster-ip-range=10.0.0.0/24 \
  10. --service-node-port-range=30000-50000 \
  11. --enable-admission-plugins=NamespaceLifecycle,LimitRanger,SecurityContextDeny,ServiceAccount,ResourceQuota,NodeRestriction \
  12. --authorization-mode=RBAC,Node \
  13. --enable-bootstrap-token-auth \
  14. --token-auth-file=/opt/kubernetes/cfg/token.csv \
  15. --tls-cert-file=/opt/kubernetes/ssl/server.pem \
  16. --tls-private-key-file=/opt/kubernetes/ssl/server-key.pem \
  17. --client-ca-file=/opt/kubernetes/ssl/ca.pem \
  18. --service-account-key-file=/opt/kubernetes/ssl/ca-key.pem \
  19. --etcd-cafile=/opt/etcd/ssl/ca.pem \
  20. --etcd-certfile=/opt/etcd/ssl/server.pem \
  21. --etcd-keyfile=/opt/etcd/ssl/server-key.pem"

vim /opt/kubernetes/cfg/kube-apiserver

  1. 参数说明:
  2. · --logtostderr 启用日志
  3. · ---v 日志等级
  4. · --etcd-servers etcd集群地址
  5. · --bind-address 监听地址
  6. · --secure-port https安全端口
  7. · --advertise-address 集群通告地址
  8. · --allow-privileged 启用授权
  9. · --service-cluster-ip-range Service虚拟IP地址段
  10. · --enable-admission-plugins 准入控制模块
  11. · --authorization-mode 认证授权,启用RBAC授权和节点自管理
  12. · --enable-bootstrap-token-auth 启用TLS bootstrap功能,后面会讲到
  13. · --token-auth-file token文件
  14. · --service-node-port-range Service Node类型默认分配端口范围
  15.  
  16. 日志:
  17. # true 日志默认放到/var/log/messages
  18. --logtostderr=true
  19. # false 日志可以指定放到一个目录
  20. --logtostderr=false
  21. --log-dir=/opt/kubernetes/logs

参数说明:

7、创建 systemd 管理 apiserver

  1. [Unit]
  2. Description=Kubernetes API Server
  3. Documentation=https://github.com/kubernetes/kubernetes
  4.  
  5. [Service]
  6. EnvironmentFile=-/opt/kubernetes/cfg/kube-apiserver
  7. ExecStart=/opt/kubernetes/bin/kube-apiserver $KUBE_APISERVER_OPTS
  8. Restart=on-failure
  9.  
  10. [Install]
  11. WantedBy=multi-user.target

vim /usr/lib/systemd/system/kube-apiserver.service

8、启动、并设置开机自启动

  1. systemctl daemon-reload
  2. systemctl enable kube-apiserver
  3. systemctl restart kube-apiserver

9、查看端口

  1. tcp 0 0 127.0.0.1:8080 0.0.0.0:* LISTEN 5431/kube-apiserver

netstat -lnpt | grep 8080

  1. tcp 0 0 172.16.105.220:6443 0.0.0.0:* LISTEN 5431/kube-apiserver

netstat -lnpt | grep 6443

3、部署 Master scheduler 组件
1、创建 schduler 配置文件

  1. KUBE_SCHEDULER_OPTS="--logtostderr=true \
  2. --v=4 \
  3. --master=127.0.0.1:8080 \
  4. --leader-elect"

vim /opt/kubernetes/cfg/kube-scheduler

  1. 参数说明:
  2. · --master 连接本地apiserver
  3. · --leader-elect 当该组件启动多个时,自动选举(HA

参数说明:

2、systemd管理schduler组件

  1. [Unit]
  2. Description=Kubernetes Scheduler
  3. Documentation=https://github.com/kubernetes/kubernetes
  4.  
  5. [Service]
  6. EnvironmentFile=-/opt/kubernetes/cfg/kube-scheduler
  7. ExecStart=/opt/kubernetes/bin/kube-scheduler $KUBE_SCHEDULER_OPTS
  8. Restart=on-failure
  9.  
  10. [Install]
  11. WantedBy=multi-user.target

vim /usr/lib/systemd/system/kube-scheduler.service

3、启动并设置开机自启

  1. systemctl daemon-reload
  2. systemctl enable kube-scheduler
  3. systemctl restart kube-scheduler

4、查看进程

  1. root 8393 0.5 1.1 45360 21356 ? Ssl 11:23 0:00 /opt/kubernetes/bin/kube-scheduler --logtostderr=true --v=4 --master=127.0.0.1:8080 --leader-elect

ps -aux | grep kube-scheduler

4、部署 Master controller-manager 组件
1、创建 controller-manager 配置文件

  1. KUBE_CONTROLLER_MANAGER_OPTS="--logtostderr=true \
  2. --v=4 \
  3. --master=127.0.0.1:8080 \
  4. --leader-elect=true \
  5. --address=127.0.0.1 \
  6. --service-cluster-ip-range=10.0.0.0/24 \
  7. --cluster-name=kubernetes \
  8. --cluster-signing-cert-file=/opt/kubernetes/ssl/ca.pem \
  9. --cluster-signing-key-file=/opt/kubernetes/ssl/ca-key.pem \
  10. --root-ca-file=/opt/kubernetes/ssl/ca.pem \
  11. --service-account-private-key-file=/opt/kubernetes/ssl/ca-key.pem \
  12. --experimental-cluster-signing-duration=87600h0m0s"

vim /opt/kubernetes/cfg/kube-controller-manager

2、systemd管理controller-manager组件

  1. [Unit]
  2. Description=Kubernetes Controller Manager
  3. Documentation=https://github.com/kubernetes/kubernetes
  4.  
  5. [Service]
  6. EnvironmentFile=-/opt/kubernetes/cfg/kube-controller-manager
  7. ExecStart=/opt/kubernetes/bin/kube-controller-manager $KUBE_CONTROLLER_MANAGER_OPTS
  8. Restart=on-failure
  9.  
  10. [Install]
  11. WantedBy=multi-user.target

vim /usr/lib/systemd/system/kube-controller-manager.service

3、启动并添加开机自启

  1. systemctl daemon-reload
  2. systemctl enable kube-controller-manager
  3. systemctl restart kube-controller-manager

4、查看进程

  1. root 8966 0.4 1.1 45360 20900 ? Ssl 11:27 0:00 /opt/kubernetes/bin/kube-scheduler --logtostderr=true --v=4 --master=127.0.0.1:8080 --leader-elect

ps -aux | grep controller-manager

5、通过 kubectl 检查所有组件状态

  1. NAME STATUS MESSAGE ERROR
  2. controller-manager Healthy ok
  3. scheduler Healthy ok
  4. etcd-2 Healthy {"health":"true"}
  5. etcd-0 Healthy {"health":"true"}
  6. etcd-1 Healthy {"health":"true"}

/opt/kubernetes/bin/kubectl get cs

5、部署 kubecongig 文件

master 节点配置

1、将kubelet-bootstrap用户绑定到系统集群角色。生成的token文件中定义的角色。

  1. # 主要为kuelet办法证书的最小全权限
  2. /opt/kubernetes/bin/kubectl create clusterrolebinding kubelet-bootstrap \
  3. --clusterrole=system:node-bootstrapper \
  4. --user=kubelet-bootstrap

2、创建kubeconfig文件、在生成kubernetes证书的目录下执行以下命令生成kubeconfig文件:

  1. # 创建kubelet bootstrapping kubeconfig
  2. BOOTSTRAP_TOKEN=674c457d4dcf2eefe4920d7dbb6b0ddc
  3. KUBE_APISERVER="https://172.16.105.220:6443"
  4.  
  5. # 设置集群参数
  6. kubectl config set-cluster kubernetes \
  7. --certificate-authority=/root/k8s/k8s-cert/ca.pem \
  8. --embed-certs=true \
  9. --server=${KUBE_APISERVER} \
  10. --kubeconfig=bootstrap.kubeconfig
  11.  
  12. # 设置客户端认证参数
  13. kubectl config set-credentials kubelet-bootstrap \
  14. --token=${BOOTSTRAP_TOKEN} \
  15. --kubeconfig=bootstrap.kubeconfig
  16.  
  17. # 设置上下文参数
  18. kubectl config set-context default \
  19. --cluster=kubernetes \
  20. --user=kubelet-bootstrap \
  21. --kubeconfig=bootstrap.kubeconfig
  22.  
  23. # 设置默认上下文
  24. kubectl config use-context default --kubeconfig=bootstrap.kubeconfig
  25.  
  26. #----------------------
  27.  
  28. # 创建kube-proxy kubeconfig文件
  29.  
  30. kubectl config set-cluster kubernetes \
  31. --certificate-authority=/root/k8s/k8s-cert/ca.pem \
  32. --embed-certs=true \
  33. --server=${KUBE_APISERVER} \
  34. --kubeconfig=kube-proxy.kubeconfig
  35.  
  36. kubectl config set-credentials kube-proxy \
  37. --client-certificate=/root/k8s/k8s-cert/kube-proxy.pem \
  38. --client-key=/root/k8s/k8s-cert/kube-proxy-key.pem \
  39. --embed-certs=true \
  40. --kubeconfig=kube-proxy.kubeconfig
  41.  
  42. kubectl config set-context default \
  43. --cluster=kubernetes \
  44. --user=kube-proxy \
  45. --kubeconfig=kube-proxy.kubeconfig
  46.  
  47. kubectl config use-context default --kubeconfig=kube-proxy.kubeconfig

vim kubeconfig.sh

3、执行脚本

  1. bash kubeconfig.sh

4、将生成的kube-proxy.kubeconfig与bootstrap.kubeconfig copy 到 Node 机器内。

  1. scp bootstrap.kubeconfig kube-proxy.kubeconfig root@172.16.105.230:/opt/kubernetes/cfg/
  2. scp bootstrap.kubeconfig kube-proxy.kubeconfig root@172.16.105.213:/opt/kubernetes/cfg/

6、部署Node kubelet 组件

1、Node节点创建目录

  1. mkdir -p /opt/kubernetes/{cfg,bin,logs,ssl}

2、copy下列文件到指定目录下

  • 使用:/kubernetes/server/bin/kubelet
  • 使用:/kubernetes/server/bin/kube-proxy
  • 将上面两个文件copy到Node端/opt/kubernetes/bin/目录下

3、创建 kubelet 配置文件

  1. KUBELET_OPTS="--logtostderr=false \
  2. --log-dir=/opt/kubernetes/logs/ \
  3. --v=4 \
  4. --hostname-override=172.16.105.213 \
  5. --kubeconfig=/opt/kubernetes/cfg/kubelet.kubeconfig \
  6. --bootstrap-kubeconfig=/opt/kubernetes/cfg/bootstrap.kubeconfig \
  7. --config=/opt/kubernetes/cfg/kubelet.config \
  8. --cert-dir=/opt/kubernetes/ssl \
  9. --pod-infra-container-image=registry.cn-hangzhou.aliyuncs.com/google-containers/pause-amd64:3.0"

vim /opt/kubernetes/cfg/kubelet

  1. 参数说明:
  2. · --hostname-override 在集群中显示的主机名
  3. · --kubeconfig 指定kubeconfig文件位置,会自动生成
  4. · --bootstrap-kubeconfig 指定刚才生成的bootstrap.kubeconfig文件
  5. · --cert-dir 颁发证书存放位置
  6. · --pod-infra-container-image 管理Pod网络的镜像

参数说明:

2、创建 kubelet.config 配置文件

  1. kind: KubeletConfiguration
  2. apiVersion: kubelet.config.k8s.io/v1beta1
  3. address: 172.16.105.213
  4. port: 10250
  5. readOnlyPort: 10255
  6. cgroupDriver: cgroupfs
  7. clusterDNS: ["10.0.0.2"]
  8. clusterDomain: cluster.local.
  9. failSwapOn: false
  10. authentication:
  11. anonymous:
  12. enabled: true

vim /opt/kubernetes/cfg/kubelet.config

3、systemd 管理 kubelet 组件

  1. [Unit]
  2. Description=Kubernetes Kubelet
  3. After=docker.service
  4. Requires=docker.service
  5.  
  6. [Service]
  7. EnvironmentFile=/opt/kubernetes/cfg/kubelet
  8. ExecStart=/opt/kubernetes/bin/kubelet $KUBELET_OPTS
  9. Restart=on-failure
  10. KillMode=process
  11.  
  12. [Install]
  13. WantedBy=multi-user.target

vim /usr/lib/systemd/system/kubelet.service

4、启动并设置开机自启动

  1. systemctl daemon-reload
  2. systemctl enable kubelet.service
  3. systemctl start kubelet.service

5、查看进程

  1. root 24607 0.8 1.7 626848 69140 ? Ssl 16:03 0:05 /opt/kubernetes/bin/kubelet --logtostderr=false --log-dir=/opt/kubernetes/logs/ --v=4 --hostname-override=172.16.105.213 --kubeconfig=/opt/kubernetes/cfg/kubelet.kubeconfig --bootstrap-kubeconfig=/opt/kubernetes/cfg/bootstrap.kubeconfig --config=/opt/kubernetes/cfg/kubelet.config --cert-dir=/opt/kubernetes/ssl --pod-infra-container-image=registry.cn-hangzhou.aliyuncs.com/google-containers/pause-amd64:3.0

ps -aux | grep kubelet

6、Master 端 审批Node 加入集群:

  • 启动后还没加入到集群中,需要手动允许该节点才可以。
  • 在Master节点查看请求签名的Node:

7、查看请求加入集群的Node

  1. NAME AGE REQUESTOR CONDITION
  2. node-csr-7ZHhg19mVh1w2gfJOh55eaBsRisA_wT8EHZQfqCLPLE 21s kubelet-bootstrap Pending
  3. node-csr-weeFsR6VVUNIHyohOgaGvy2Hr6M9qSUIkoGjQ_mUyOo 28s kubelet-bootstrap Pending

kubectl get csr

8、同意请求让Node节点加入

  1. kubectl certificate approve node-csr-7ZHhg19mVh1w2gfJOh55eaBsRisA_wT8EHZQfqCLPLE
  2. kubectl certificate approve node-csr-weeFsR6VVUNIHyohOgaGvy2Hr6M9qSUIkoGjQ_mUyOo

9、查看加入节点

  1. NAME STATUS ROLES AGE VERSION
  2. 172.16.105.213 Ready <none> 42s v1.12.1
  3. 172.16.105.230 Ready <none> 57s v1.12.1

kubectl get node

7、部署Node kube-proxy组件

1、创建 kube-proxy 配置文件

  1. KUBE_PROXY_OPTS="--logtostderr=true \
  2. --v=4 \
  3. --hostname-override=172.16.105.213 \
  4. --cluster-cidr=10.0.0.0/24 \
  5. --kubeconfig=/opt/kubernetes/cfg/kube-proxy.kubeconfig"

vim /opt/kubernetes/cfg/kube-proxy

2、systemd管理kube-proxy组件

  1. [Unit]
  2. Description=Kubernetes Proxy
  3. After=network.target
  4.  
  5. [Service]
  6. EnvironmentFile=-/opt/kubernetes/cfg/kube-proxy
  7. ExecStart=/opt/kubernetes/bin/kube-proxy $KUBE_PROXY_OPTS
  8. Restart=on-failure
  9.  
  10. [Install]
  11. WantedBy=multi-user.target

vim /usr/lib/systemd/system/kube-proxy.service

3、启动并设置开机自启动

  1. systemctl daemon-reload
  2. systemctl enable kube-proxy
  3. systemctl start kube-proxy

4、查看进程

  1. root 27166 0.3 0.5 41588 21332 ? Ssl 16:16 0:00 /opt/kubernetes/bin/kube-proxy --logtostderr=true --v=4 --hostname-override=172.16.105.213 --cluster-cidr=10.0.0.0/24 --kubeconfig=/opt/kubernetes/cfg/kube-proxy.kubeconfig

ps -aux | grep kube-proxy

8、其他设置

1、解决:将匿名用户绑定到系统用户

  1. kubectl create clusterrolebinding system:anonymous --clusterrole=cluster-admin --user=system:anonymous

3.7、部署 kubernetes 多Master集群

1、Master2配置部署

  • 注:Master节点2配置与单Master相同下面我这里只直接略过相同配置。
  • 注:直接复制配置文件可能会导致etcd链接问题
  • 注:最好以master为etcd端。

1、修改Master02配置文件中的IP,更改为Master02IP

  1. --bind-address=172.16.105.212
  2. --advertise-address=172.16.105.212

vim kube-apiserver

2、启动Master02 k8s

  1. systemctl start kube-apiserver
  2. systemctl start kube-scheduler
  3. systemctl start kube-controller-manager

3、查看集群状态

  1. NAME STATUS MESSAGE ERROR
  2. etcd-1 Healthy {"health":"true"}
  3. etcd-2 Healthy {"health":"true"}
  4. controller-manager Healthy ok
  5. scheduler Healthy ok
  6. etcd-0 Healthy {"health":"true"}

kubectl get cs

5、查看etcd连接状态

  1. NAME STATUS ROLES AGE VERSION
  2. 172.16.105.213 Ready <none> 41h v1.12.1
  3. 172.16.105.230 Ready <none> 41h v1.12.1

kubectl get node

2、部署 Nginx 负载均衡

  • 注:保证系统时间统一证书正常使用
  • nginx官网:http://www.nginx.org
  • documentation --> Installing nginx --> packages

1、复制nginx官方源写入到/etc/yum.repos.d/nginx.repo、修该centos版本

  1. [nginx-stable]
  2. name=nginx stable repo
  3. baseurl=http://nginx.org/packages/centos/7/$basearch/
  4. gpgcheck=1
  5. enabled=1
  6. gpgkey=https://nginx.org/keys/nginx_signing.key
  7.  
  8. [nginx-mainline]
  9. name=nginx mainline repo
  10. baseurl=http://nginx.org/packages/mainline/centos/7/$basearch/
  11. gpgcheck=1
  12. enabled=0
  13. gpgkey=https://nginx.org/keys/nginx_signing.key

vim /etc/yum.repos.d/nginx.repo

2、从新加载yum

  1. yum clean all
  2. yum makecache

3、安装 nginx

  1. yum install nginx -y

4、修该配置文件,events同级添加

  1. events {
  2. worker_connections 1024;
  3. }
  4.  
  5. stream {
  6. log_format main "$remote_addr $upstream_addr - $time_local $status";
  7. access_log /var/log/nginx/k8s-access.log main;
  8. upstream k8s-apiserver {
  9. server 172.16.105.220:6443;
  10. server 172.16.105.210:6443;
  11. }
  12. server {
  13. listen 172.16.105.231:6443;
  14. proxy_pass k8s-apiserver;
  15. }
  16. }

vim /etc/nginx/nginx.conf

  1. 参数说明:
  2. # 创建四层负载均衡
  3. stream {
  4. # 记录日志
  5. log_format main "$remote_addr $upstream_addr $time_local $status"
  6. # 日志存放路径
  7. access_log /var/log/nginx/k8s-access.log main;
  8. # 创建调度集群 k8s-apiserver 为服务名称
  9. upstream k8s-apiserver {
  10. server 172.16.105.220:6443;
  11. server 172.16.105.210:6443;
  12. }
  13. # 创建监听服务
  14. server {
  15. # 本地监听访问开启的使用IP与端口
  16. listen 172.16.105.231:6443;
  17. # 调度的服务名称,由于是4层则不是用http
  18. proxy_pass k8s-apiserver;
  19. }
  20. }

参数说明:

5、启动nginx并生效配置文件

  1. systemctl start nginx

6、查看监听端口

  1. tcp 0 0 172.16.105.231:6443 0.0.0.0:* LISTEN 19067/nginx: master

netstat -lnpt | grep 6443

8、修改每个Node 节点中配置文件。将引用的连接端,改为该负载均衡的机器内。

  1. vim bootstrap.kubeconfig
  2. server: https://172.16.105.231:6443
  3.  
  4. vim kubelet.kubeconfig
  5. server: https://172.16.105.231:6443
  6.  
  7. vim kube-proxy.kubeconfig
  8. server: https://172.16.105.231:6443

9、重启 kubelet Node 客户端

  1. systemctl restart kubelet
  2. systemctl restart kube-proxy

10、查看Node 启动进程

  1. root 23226 0.0 0.4 300552 16460 ? Ssl Aug08 0:25 /opt/kubernetes/bin/flanneld --ip-masq --etcd-endpoints=https://172.16.105.220:2379,https://172.16.105.230:2379,https://172.16.105.213:2379 -etcd-cafile=/opt/etcd/ssl/ca.pem -etcd-certfile=/opt/etcd/ssl/server.pem -etcd-keyfile=/opt/etcd/ssl/server-key.pem
  2. root 26986 1.5 1.5 632676 60740 ? Ssl 11:30 0:01 /opt/kubernetes/bin/kubelet --logtostderr=false --log-dir=/opt/kubernetes/logs/ --v=4 --hostname-override=172.16.105.213 --kubeconfig=/opt/kubernetes/cfg/kubelet.kubeconfig --bootstrap-kubeconfig=/opt/kubernetes/cfg/bootstrap.kubeconfig --config=/opt/kubernetes/cfg/kubelet.config --cert-dir=/opt/kubernetes/ssl --pod-infra-container-image=registry.cn-hangzhou.aliyuncs.com/google-containers/pause-amd64:3.0
  3. root 27584 0.7 0.5 41588 19896 ? Ssl 11:32 0:00 /opt/kubernetes/bin/kube-proxy --logtostderr=true --v=4 --hostname-override=172.16.105.213 --cluster-cidr=10.0.0.0/24 --kubeconfig=/opt/kubernetes/cfg/kube-proxy.kubeconfig

ps -aux | grep kube

11、重启Master kube-apiserver

  1. systemctl restart kube-apiserver

12、查看Nginx日志

  1. 172.16.105.213 172.16.105.220:6443 09/Aug/2019:13:34:59 +0800 200
  2. 172.16.105.230 172.16.105.220:6443 09/Aug/2019:13:34:59 +0800 200
  3. 172.16.105.213 172.16.105.220:6443 09/Aug/2019:13:34:59 +0800 200
  4. 172.16.105.230 172.16.105.220:6443 09/Aug/2019:13:34:59 +0800 200
  5. 172.16.105.230 172.16.105.220:6443 09/Aug/2019:13:35:00 +0800 200

tail -f /var/log/nginx/k8s-access.log

3部署 Nginx2+keepalived 高可用

  • 注:VIP 要设置为证书授权过得ip否则会无法通过外网访问
  • 注:安装Nginx2与单Nginx的安装步骤相同,这里我不再重复部署,只讲解重点。

1、Nginx1与Nginx2安装keepalive高可用

  1. yum -y install keepalived

2、修改Nginx1 Master 主配置文件

  1. ! Configuration File for keepalived
  2. global_defs {
  3. # 接收邮件地址
  4. notification_email {
  5. acassen@firewall.loc
  6. failover@firewall.loc
  7. sysadmin@firewall.loc
  8. }
  9. # 邮件发送地址
  10. notification_email_from Alexandre.Cassen@firewall.loc
  11. smtp_server 127.0.0.1
  12. smtp_connect_timeout 30
  13. router_id NGINX_MASTER
  14. }
  15.  
  16. # 通过vrrp协议检查本机nginx服务是否正常
  17. vrrp_script check_nginx {
  18. script "/etc/keepalived/check_nginx.sh"
  19. }
  20.  
  21. vrrp_instance VI_1 {
  22. state MASTER
  23. interface ens32
  24. virtual_router_id 51 # VRRP 路由 ID实例,每个实例是唯一的
  25. priority 100 # 优先级,备服务器设置 90
  26. advert_int 1 # 指定VRRP 心跳包通告间隔时间,默认1秒
  27.  
  28. # 密码认证
  29. authentication {
  30. auth_type PASS
  31. auth_pass 1111
  32. }
  33. # VIP
  34. virtual_ipaddress {
  35. 192.168.1.100/24
  36. }
  37.  
  38. # 使用检查脚本
  39. track_script {
  40. check_nginx
  41. }
  42. }

vim /etc/keepalived/keepalived.conf

3、修改Nginx2 Slave 主配置文件

  1. ! Configuration File for keepalived
  2. global_defs {
  3. # 接收邮件地址
  4. notification_email {
  5. acassen@firewall.loc
  6. failover@firewall.loc
  7. sysadmin@firewall.loc
  8. }
  9. # 邮件发送地址
  10. notification_email_from Alexandre.Cassen@firewall.loc
  11. smtp_server 127.0.0.1
  12. smtp_connect_timeout 30
  13. router_id NGINX_MASTER
  14. }
  15.  
  16. # 通过vrrp协议检查本机nginx服务是否正常
  17. vrrp_script check_nginx {
  18. script "/etc/keepalived/check_nginx.sh"
  19. }
  20.  
  21. vrrp_instance VI_1 {
  22. state BACKUP
  23. interface ens32
  24. virtual_router_id 51 # VRRP 路由 ID实例,每个实例是唯一的
  25. priority 90 # 优先级,备服务器设置 90
  26. advert_int 1 # 指定VRRP 心跳包通告间隔时间,默认1秒
  27.  
  28. # 密码认证
  29. authentication {
  30. auth_type PASS
  31. auth_pass 1111
  32. }
  33. # VIP
  34. virtual_ipaddress {
  35. 192.168.1.100/24
  36. }
  37.  
  38. # 使用检查脚本
  39. track_script {
  40. check_nginx
  41. }
  42. }

vim /etc/keepalived/keepalived.conf

4、Ngin1与Nginx2创建检查脚本

  1. # 检查nginx进程数
  2. count=$(ps -ef |grep nginx |egrep -cv "grep|$$")
  3.  
  4. if [ "$count" -eq 0 ];then
  5. systemctl stop keepalived
  6. fi

vim /etc/keepalived/check_nginx.sh

5、给脚本添加权限

  1. chmod +x /etc/keepalived/check_nginx.sh

6、Ngin1与Nginx2启动keepalived

  1. systemctl start keepalived

7、查看进程

  1. root 1969 0.0 0.1 118608 1396 ? Ss 09:41 0:00 /usr/sbin/keepalived -D
  2. root 1970 0.0 0.2 120732 2832 ? S 09:41 0:00 /usr/sbin/keepalived -D
  3. root 1971 0.0 0.2 120732 2380 ? S 09:41 0:00 /usr/sbin/keepalived -D

ps aux | grep keepalived

8、Master 查看虚拟IP

  1. ens32: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
  2. link/ether 00:0c:29:3d:1c:d0 brd ff:ff:ff:ff:ff:ff
  3. inet 192.168.1.115/24 brd 192.168.1.255 scope global dynamic ens32
  4. valid_lft 5015sec preferred_lft 5015sec
  5. inet 192.168.1.100/24 scope global secondary ens32
  6. valid_lft forever preferred_lft forever
  7. inet6 fe80::4db8:8591:9f94:8837/64 scope link
  8. valid_lft forever preferred_lft forever

ip addr

9、Slave 6、查看虚拟IP(没有就正常)

  1. ens32: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
  2. link/ether 00:0c:29:09:b3:c4 brd ff:ff:ff:ff:ff:ff
  3. inet 192.168.1.112/24 brd 192.168.1.255 scope global dynamic ens32
  4. valid_lft 7200sec preferred_lft 7200sec
  5. inet6 fe80::1dbe:11ff:f093:ef49/64 scope link
  6. valid_lft forever preferred_lft forever

ip addr

10、测试

  1. 测试IP飘逸
  2. 1、关闭Master Nginx1
  3. pkill nginx
  4. 2、查看Slave Nginx2 虚拟IP是否飘逸
  5. ip addr
  6. 2: ens32: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
  7. link/ether 00:0c:29:09:b3:c4 brd ff:ff:ff:ff:ff:ff
  8. inet 192.168.1.112/24 brd 192.168.1.255 scope global dynamic ens32
  9. valid_lft 4387sec preferred_lft 4387sec
  10. inet 192.168.1.100/24 scope global secondary ens32
  11. valid_lft forever preferred_lft forever
  12. inet6 fe80::1dbe:11ff:f093:ef49/64 scope link
  13. valid_lft forever preferred_lft forever
  14. 3、启动Master Nginx1 keepalived 测试ip飘回
  15. systemctl start nginx
  16. systemctl start keepalived
  17. 4、查看Nginx1 vip
  18. ip addr
  19. 2: ens32: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000
  20. link/ether 00:0c:29:3d:1c:d0 brd ff:ff:ff:ff:ff:ff
  21. inet 192.168.1.115/24 brd 192.168.1.255 scope global dynamic ens32
  22. valid_lft 7010sec preferred_lft 7010sec
  23. inet 192.168.1.100/24 scope global secondary ens32
  24. valid_lft forever preferred_lft forever
  25. inet6 fe80::4db8:8591:9f94:8837/64 scope link
  26. valid_lft forever preferred_lft forever

测试IP飘逸

11、修改Nginx1 与 Nginx2 代理监听

  1. stream {
  2. log_format main "$remote_addr $upstream_addr - $time_local $status";
  3. access_log /var/log/nginx/k8s-access.log main;
  4. upstream k8s-apiserver {
  5. server 192.168.1.108:6443;
  6. server 192.168.1.109:6443;
  7. }
  8. server {
  9. listen 0.0.0.0:6443;
  10. proxy_pass k8s-apiserver;
  11. }
  12. }

vim /etc/nginx/nginx.conf

12、重启nginx

  1. systemctl restart nginx

13、接入K8S  修改所有Node配置文件IP为 VIP

1、修改配置文件

  1. vim bootstrap.kubeconfig
  2. server: https://192.168.1.100:6443
  3. vim kube-proxy.kubeconfig
  4. server: https://192.168.1.100:6443

2、重启Node

  1. systemctl restart kubelet
  2. systemctl restart kube-proxy

3、查看Master nginx1 日志

  1. 192.168.1.111 192.168.1.108:6443 - 22/Aug/2019:11:02:36 +0800 200
  2. 192.168.1.111 192.168.1.109:6443 - 22/Aug/2019:11:02:36 +0800 200
  3. 192.168.1.110 192.168.1.108:6443 - 22/Aug/2019:11:02:36 +0800 200
  4. 192.168.1.110 192.168.1.109:6443 - 22/Aug/2019:11:02:36 +0800 200
  5. 192.168.1.111 192.168.1.108:6443 - 22/Aug/2019:11:02:37 +0800 200

tail /var/log/nginx/k8s-access.log -f

Kubernetes 企业级集群部署方式的更多相关文章

  1. Kubernetes(k8s)集群部署(k8s企业级Docker容器集群管理)系列之自签TLS证书及Etcd集群部署(二)

    0.前言 整体架构目录:ASP.NET Core分布式项目实战-目录 k8s架构目录:Kubernetes(k8s)集群部署(k8s企业级Docker容器集群管理)系列目录 一.服务器设置 1.把每一 ...

  2. Kubernetes(k8s)集群部署(k8s企业级Docker容器集群管理)系列目录

    0.目录 整体架构目录:ASP.NET Core分布式项目实战-目录 k8s架构目录:Kubernetes(k8s)集群部署(k8s企业级Docker容器集群管理)系列目录 一.感谢 在此感谢.net ...

  3. Kubernetes(k8s)集群部署(k8s企业级Docker容器集群管理)系列之集群部署环境规划(一)

    0.前言 整体架构目录:ASP.NET Core分布式项目实战-目录 k8s架构目录:Kubernetes(k8s)集群部署(k8s企业级Docker容器集群管理)系列目录 一.环境规划 软件 版本 ...

  4. Kubernetes(k8s)集群部署(k8s企业级Docker容器集群管理)系列之flanneld网络介绍及部署(三)

    0.前言 整体架构目录:ASP.NET Core分布式项目实战-目录 k8s架构目录:Kubernetes(k8s)集群部署(k8s企业级Docker容器集群管理)系列目录 一.flanneld介绍 ...

  5. Kubernetes(k8s)集群部署(k8s企业级Docker容器集群管理)系列之部署master/node节点组件(四)

    0.前言 整体架构目录:ASP.NET Core分布式项目实战-目录 k8s架构目录:Kubernetes(k8s)集群部署(k8s企业级Docker容器集群管理)系列目录 1.部署master组件 ...

  6. Kubernetes&Docker集群部署

    集群环境搭建 搭建kubernetes的集群环境 环境规划 集群类型 kubernetes集群大体上分为两类:一主多从和多主多从. 一主多从:一台Master节点和多台Node节点,搭建简单,但是有单 ...

  7. linux运维、架构之路-Kubernetes离线集群部署-无坑

    一.部署环境介绍 1.服务器规划 系统 IP地址 主机名 CPU 内存 CentOS  7.5 192.168.56.11 k8s-node1 2C 2G CentOS  7.5 192.168.56 ...

  8. kubernetes容器集群部署Etcd集群

    安装etcd 二进制包下载地址:https://github.com/etcd-io/etcd/releases/tag/v3.2.12 [root@master ~]# GOOGLE_URL=htt ...

  9. Ha-Federation-hdfs +Yarn集群部署方式

    经过一下午的尝试,终于把这个集群的搭建好了,搭完感觉也没有太大的必要,就当是学习了吧,为之后搭建真实环境做基础. 以下搭建的是一个Ha-Federation-hdfs+Yarn的集群部署. 首先讲一下 ...

随机推荐

  1. ABAP 7.4 新语法-内嵌生命和内表操作(转)

    转自:https://www.cnblogs.com/mingdashu/p/6744637.html ABAP 7.4 新语法-内嵌生命和内表操作   1.内嵌声明 2.内表操作 3.opensql ...

  2. NetCore 下使用 DataTable 以及可视化工具

    DtatTable 在命名空间System.Data下,NetCore2.0及以上支持.但是2017DataTable没有可视化工具,我也没有深研究直接下载的VS2019.然后在网上早了个SQLHel ...

  3. Implement Dependent Reference Properties实现依赖引用属性 (EF)

    In this lesson, you will learn how to implement properties whose values can depend on other properti ...

  4. SpringBoot(九)RabbitMQ安装及配置和使用,消息确认机制

    Windows下RabbitMQ安装及配置地址: https://blog.csdn.net/zhm3023/article/details/82217222RabbitMQ(四)订阅模式:https ...

  5. python web框架Django入门

    Django 简介 背景及介绍 Django是一个开放源代码的Web应用框架,由Python写成.采用了MVC的框架模式,即模型M,视图V和控制器C.它最初是被开发来用于管理劳伦斯出版集团旗下的一些以 ...

  6. CSS3 新增选择器

    CSS3 新增选择器 结构(位置)伪类选择器(CSS3) :first-child :选取属于其父元素的首个子元素的指定选择器 :last-child :选取属于其父元素的最后一个子元素的指定选择器 ...

  7. 解决mac睡眠唤醒/插拔之后,外接显示器无法点亮/无信号问题

    问题现象 mac盖上盖子唤醒或者里临时拔出数据线,再重新连接之后,经常出现下面问题: [系统偏好设置]-[显示器]仍可以识别外接显示器: 外接显示器会提示无信号输入 解决方法 方法一 通过[系统偏好设 ...

  8. 【JavaWeb】JSTL标签库

    JSTL标签库 JSTL标准标签库: JSTL用于简化JSP开发,提高代码的可读性与可维护性: JSTL由SUN(Oracle)定义规范,由Apache Tomcat团队实现: 引用JSTL核心库 核 ...

  9. FileSizeLimitExceededException

    org.apache.tomcat.util.http.fileupload.FileUploadBase$FileSizeLimitExceededException 很明显,这异常的意思是文件大小 ...

  10. win10 64位安装redis 及Redis Desktop Manager使用

    说多无益,先把redis在win上的开发环境搭一下. redis官方没有64位的Windows下的可执行程序,目前有个开源的托管在github上, 地址:https://github.com/Serv ...