在 192.168.0.1 app 用户下执行
1)程序准备
tar zxvf kubernetes-server-linux-amd64.tar.gz
mv kubernetes/server/bin/{kube-apiserver,kube-scheduler,kube-controller-
manager,kubectl} kubernetes/bin
2) 拷贝 CA 证书
cp *pem kubernetes/ssl/
3)创建 TLS Bootstrapping Token
head -c 16 /dev/urandom | od -An -t x | tr -d ' '
2366a641f656a0a025abb4aabda4511b
vim /data/projects/common/kubernetes/cfg/token.csv(填入上面生成的数字)
2366a641f656a0a025abb4aabda4511b,kubelet-bootstrap,10001,"system:kubelet-bootstrap"
4) apiserver 服务配置
a.修改配置
kubernetes/cfg/kube-apiserver

#!/bin/bash
ETCD_HOME=etcd
ETCD01_IP=192.168.0.1
ETCD02_IP=192.168.0.2
ETCD03_IP=192.168.0.3
KUBE_HOME=kubernetes
CLUSTER_IP="10.1.0.0/24"
KUBE_API_ARGS="--logtostderr=true \
--v=4 \
--etcd-servers=https://$ETCD01_IP:2379,https://$ETCD02_IP:2379,https://$ETCD03_IP:2379 \
--bind-address=0.0.0.0 \
--secure-port=6443 \\
--insecure-bind-address=0.0.0.0 \
--insecure-port=8080 \
--advertise-address=$ETCD_IP \
--allow-privileged=true \
--service-cluster-ip-range=$CLUSTER_IP \
--admission-control=NamespaceLifecycle,LimitRanger,SecurityContextDeny,ServiceAccount,ResourceQuota,NodeRestriction \
--authorization-mode=RBAC,Node \
--enable-bootstrap-token-auth \
--token-auth-file=$KUBE_HOME/cfg/token.csv \
--service-node-port-range=30000-50000 \
--tls-cert-file=$KUBE_HOME/ssl/server.pem \
--tls-private-key-file=$KUBE_HOME/ssl/server-key.pem \
--client-ca-file=$KUBE_HOME/ssl/ca.pem \
--service-account-key-file=$KUBE_HOME/ssl/ca-key.pem \
--etcd-cafile=$ETCD_HOME/ssl/ca.pem \
--etcd-certfile=$ETCD_HOME/ssl/server.pem \
--etcd-keyfile=$ETCD_HOME/ssl/server-key.pem"

b.开启与停止服务
#开启服务

#!/bin/bash
export KUBE_HOME=kubernetes
source $KUBE_HOME/cfg/kube-apiserver
nohup $KUBE_HOME/bin/kube-apiserver $KUBE_API_ARGS &

#停止服务

#!/bin/bash
kill -9 ` ps -ef | grep kube-apiserver | grep -v grep | awk '{print $2}'`

5)scheduler 服务配置
kubernetes/kube-scheduler

#!/bin/bash
KUBE_IP=192.168.0.1
KUBE_SCHEDULER_ARGS="--address=127.0.0.1 --logtostderr=true --v=4 --master=$KUBE_IP:8080 --leader-elect"

b.开启与停止服务
#开启服务

#!/bin/bash
KUBE_HOME=kubernetes
source $KUBE_HOME/cfg/kube-scheduler
nohup $KUBE_HOME/bin/kube-scheduler $KUBE_SCHEDULER_ARGS &

#停止服务

#!/bin/bash
kill -9 ` ps -ef | grep kube-scheduler | grep -v grep | awk '{print $2}'`

6)controller-manager 服务配置
kubernetes/kube-controller-manager

#!/bin/bash
KUBE_HOME=/data/projects/common/kubernetes
KUBE_IP=192.168.0.1
CLUSTER_IP="10.1.0.0/24" KUBE_CONTROLLER_MANAGER_ARGS="--logtostderr=true \
--v=4 \
--master=$KUBE_IP:8080 \
--leader-elect=true \
--address=127.0.0.1 \
--service-cluster-ip-range=$CLUSTER_IP \
--cluster-name=kubernetes \
--cluster-signing-cert-file=$KUBE_HOME/ssl/ca.pem \
--cluster-signing-key-file=$KUBE_HOME/ssl/ca-key.pem \
--root-ca-file=$KUBE_HOME/ssl/ca.pem \
--service-account-private-key-file=$KUBE_HOME/ssl/ca-key.pem"

b.开启与停止服务
#开启服务

#!/bin/bash
KUBE_HOME=kubernetes
source $KUBE_HOME/cfg/kube-controller-manager
nohup $KUBE_HOME/bin/kube-controller-manager $KUBE_CONTROLLER_MANAGER_ARGS &

#停止服务

#!/bin/bash
kill -9 ` ps -ef | grep kube-controller-manager | grep -v grep | awk '{print $2}'`

7)验证组件
kubernetes/bin/kubectl get cs

k8s记录-master组件部署(八)的更多相关文章

  1. k8s记录-node组件部署(十)

    1)CA 证书配置登录 192.168.0.1 app 用户下cd ssl/kubernetes#注意修改 KUBE_HOME,BOOTSTRAP_TOKEN #与 3.5 3)token 一致,KU ...

  2. k8s记录-kubeam方式部署k8s

    参考:https://blog.csdn.net/networken/article/details/84991940 # k8s工具部署方案 # 1.集群规划 | **服务器** | || ---- ...

  3. K8s二进制部署单节点 master组件 node组件 ——头悬梁

    K8s二进制部署单节点   master组件 node组件   --头悬梁 1.master组件部署 2.node   组件部署 k8s集群搭建: etcd集群 flannel网络插件 搭建maste ...

  4. Kubeadm部署k8s单点master

    Kubeadm部署k8s单点master 1.环境准备: 主机名 IP 说明 宿主机系统 master 10.0.0.17 Kubernetes集群的master节点 CentOS 7.9 node1 ...

  5. Taints和Tolerations联用,将pod部署到k8s的master节点

    一般,k8s的master为了保持高性能,在这个主节点上只运行一些管理必须的POD. 如果我们限于资源,或是一些监控类的pod要部署到master节点呢? 昨天遇到这个问题,按网上通用的方法,未解决, ...

  6. 使用Kubeadm创建k8s集群之部署规划(三十)

    前言 上一篇我们讲述了使用Kubectl管理k8s集群,那么接下来,我们将使用kubeadm来启动k8s集群. 部署k8s集群存在一定的挑战,尤其是部署高可用的k8s集群更是颇为复杂(后续会讲).因此 ...

  7. k8s 1.12 环境部署及学习笔记

    1.K8S概述 1.Kubernetes是什么 2.Kubernetes特性 3.Kubernetes集群架构与组件 4.Kubernetes核心概念 1.1 Kubernetes是什么 • Kube ...

  8. 基于 K8S 集群安装部署 istio-1.2.4

    使用云平台可以为组织提供丰富的好处.然而,不可否认的是,采用云可能会给 DevOps 团队带来压力.开发人员必须使用微服务以满足应用的可移植性,同时运营商管理了极其庞大的混合和多云部署.Istio 允 ...

  9. 【k8s第二步】Kubernetes-Kubeadm部署安装【已修正错误】

    ⒈开启kube-proxy的ipvs的前置条件 模式改为lvs调度的方式,kube-proxy主要解决的是svc(service)与pod之间的调度关系,ipvs的调度方式可以极大的增加它的访问效率, ...

随机推荐

  1. CentOS 7网络配置工具

    CentOS 7网络配置工具 作者:尹正杰 版权声明:原创作品,谢绝转载!否则将追究法律责任. 一.网卡命名机制 CentOS 6之前,网络接口使用连续号码命名:eth0.eth1等,当增加或删除网卡 ...

  2. HashMap扩容死循环问题

    原文:https://blog.csdn.net/Leon_cx/article/details/81911223 下面我们来模拟一下多线程场景下扩容会出现的问题: 假设在扩容过程中旧hash桶中有一 ...

  3. springboot全局异常处理(1)

    新建一个类 在类上加一个注解即可 @ControllerAdvice /** * 全局错误处理 * @author sys * */ @ControllerAdvice @ResponseBody p ...

  4. win10下无法安装loadrunner,提示“管理员已阻止你运行此应用”

    如下图: 1.再次进入控制面板,并且选择用户账户后把最下面的[更改用户账户控制设置],里面有个滑条,把滑条拉到最下面的[从不通知]上面并且确定. 2.按[Win+R]快捷键打开运行,输入 gpedit ...

  5. 两个不同的账户登录两个浏览器,导入同样的excel表格。数据出现重复

    1.场景: 两个不同的账户登录两个浏览器,导入同样的excel表格.业务逻辑已经有验重校验,但数据仍然出现重复,锁定是并发问题导致. 2.参考博客: https://cloud.tencent.com ...

  6. Django REST framework 使用简记

    最近在参与的项目中需要使用到dajngo REST framework工具包进行开发,之前参与的项目几乎都是清一色的使用原生的django(话说偶尔也会使用一下Flask,真心不怎么喜欢这个框架),之 ...

  7. Linux中在vim/vi模式下对文本的查找和替换

    查找: 1.vim  filename  进入一般模式下 2.查找和替换方法 /word    向下查找word 的字符串  例如  /chengtingting   向下查找字符chengtingt ...

  8. linux下使用rzsz实现文件的上传和下载

    新搞的云服务器用SecureCRT不支持上传和下载,没有找到rz命令.记录一下如何安装rz/sz命令的方法. 一.工具说明 在SecureCRT这样的ssh登录软件里, 通过在Linux界面里输入rz ...

  9. 多项式求逆入门 板题(Luogu P4238)

    下面是代码,推导详见 传送门 模板Code #include <cstdio> #include <cstring> #include <algorithm> us ...

  10. Log4net 数据库存储(四)

    1.新建一个空的ASP.Net 空项目,然后添加Default.aspx窗体 2.添加配置文件:log4net.config <?xml version="1.0" enco ...