摘要:
1、Kube-scheduler作为组件运行在master节点,主要任务是把从kube-apiserver中获取的未被调度的pod通过一系列调度算法找到最适合的node,最终通过向kube-apiserver中写入Binding对象(其中指定了pod名字和调度后的node名字)来完成调度
2、kube-scheduler与kube-controller-manager一样,如果高可用,都是采用leader选举模式。启动后将通过竞争选举机制产生一个 leader 节点,其它节点为阻塞状态。当 leader 节点不可用后,剩余节点将再次进行选举产生新的 leader 节点,从而保证服务的可用性。

简单总结:
     kube-scheduler负责分配调度Pod到集群内的node节点
     监听kube-apiserver,查询还未分配的Node的Pod
     根据调度策略为这些Pod分配节点 
1)创建kube-scheduler证书签名请求
kube-scheduler 连接 apiserver 需要使用的证书,同时本身 10259 端口也会使用此证书
  1. [root@k8s-master01 ~]# vim /opt/k8s/certs/kube-scheduler-csr.json
  2. {
  3. "CN": "system:kube-scheduler",
  4. "hosts": [
  5. "127.0.0.1",
  6. "localhost",
  7. "10.10.0.18",
  8. "10.10.0.19",
  9. "10.10.0.20"
  10. ],
  11. "key": {
  12. "algo": "rsa",
  13. "size":
  14. },
  15. "names": [
  16. {
  17. "C": "CN",
  18. "ST": "ShangHai",
  19. "L": "ShangHai",
  20. "O": "system:kube-scheduler",
  21. "OU": "System"
  22. }
  23. ]
  24. }
2)生成kube-scheduler证书与私钥

  1. [root@k8s-master01 ~]# cd /opt/k8s/certs/
  2. [root@k8s-master01 certs]# cfssl gencert -ca=/etc/kubernetes/ssl/ca.pem \
  3. -ca-key=/etc/kubernetes/ssl/ca-key.pem \
  4. -config=/opt/k8s/certs/ca-config.json \
  5. -profile=kubernetes kube-scheduler-csr.json | cfssljson -bare kube-scheduler
  6. // :: [INFO] generate received request
  7. // :: [INFO] received CSR
  8. // :: [INFO] generating key: rsa-
  9. // :: [INFO] encoded CSR
  10. // :: [INFO] signed certificate with serial number
  11. // :: [WARNING] This certificate lacks a "hosts" field. This makes it unsuitable for
  12. websites. For more information see the Baseline Requirements for the Issuance and Management
  13. of Publicly-Trusted Certificates, v.1.1., from the CA/Browser Forum (https://cabforum.org);
  14. specifically, section 10.2. ("Information Requirements").
3)查看证书

  1. [root@k8s-master01 certs]# ll kube-scheduler*
  2. -rw-r--r-- root root Apr : kube-scheduler.csr
  3. -rw-r--r-- root root Apr : kube-scheduler-csr.json
  4. -rw------- root root Apr : kube-scheduler-key.pem
  5. -rw-r--r-- root root Apr : kube-scheduler.pem
4)分发证书

  1. [root@k8s-master01 ~]# ansible k8s-master -m copy -a 'src=/opt/k8s/certs/kube-scheduler-key.pem dest=/etc/kubernetes/ssl/'
  2. [root@k8s-master01 ~]# ansible k8s-master -m copy -a 'src=/opt/k8s/certs/kube-scheduler.pem dest=/etc/kubernetes/ssl/'
5)生成配置文件kube-scheduler.kubeconfig

1、kube-scheduler 组件开启安全端口及 RBAC 认证所需配置
2、kube-scheduler kubeconfig文件中包含Master地址信息与上一步创建的证书、私钥
  1. ## 设置集群参数
  2. ###
  3. [root@k8s-master01 ~]# kubectl config set-cluster kubernetes \
  4. --certificate-authority=/etc/kubernetes/ssl/ca.pem \
  5. --embed-certs=true \
  6. --server=https://127.0.0.1:6443 \
  7. --kubeconfig=kube-scheduler.kubeconfig
  8. Cluster "kubernetes" set.
  9. ## 配置客户端认证参数
  10. [root@k8s-master01 ~]# kubectl config set-credentials "system:kube-scheduler" \
  11. --client-certificate=/etc/kubernetes/ssl/kube-scheduler.pem \
  12. --client-key=/etc/kubernetes/ssl/kube-scheduler-key.pem \
  13. --embed-certs=true \
  14. --kubeconfig=kube-scheduler.kubeconfig
  15. User "system:kube-scheduler" set.
  16. ## 配置上下文参数
  17. [root@k8s-master01 ~]# kubectl config set-context system:kube-scheduler@kubernetes \
  18. --cluster=kubernetes \
  19. --user=system:kube-scheduler \
  20. --kubeconfig=kube-scheduler.kubeconfig
  21. Context "system:kube-scheduler@kubernetes" created.
  22. ## 配置默认上下文
  23. [root@k8s-master01 ~]# kubectl config use-context system:kube-scheduler@kubernetes --kubeconfig=kube-scheduler.kubeconfig
  24. Switched to context "system:kube-scheduler@kubernetes".
  25. ## 配置文件分发
  26. [root@k8s-master01 ~]# ansible k8s-master -m copy -a 'src=/root/kube-scheduler.kubeconfig dest=/etc/kubernetes/config/'
6)编辑kube-scheduler核心文件

kube-shceduler 同 kube-controller manager 一样将不安全端口绑定在本地,安全端口对外公开
  1. [root@k8s-master01 ~]# vim /opt/k8s/cfg/kube-scheduler.conf
  2. ###
  3. # kubernetes scheduler config
  4.  
  5. # default config should be adequate
  6.  
  7. # Add your own!
  8. KUBE_SCHEDULER_ARGS="--address=127.0.0.1 \
  9. --authentication-kubeconfig=/etc/kubernetes/config/kube-scheduler.kubeconfig \
  10. --authorization-kubeconfig=/etc/kubernetes/config/kube-scheduler.kubeconfig \
  11. --bind-address=0.0.0.0 \
  12. --client-ca-file=/etc/kubernetes/ssl/ca.pem \
  13. --kubeconfig=/etc/kubernetes/config/kube-scheduler.kubeconfig \
  14. --requestheader-client-ca-file=/etc/kubernetes/ssl/ca.pem \
  15. --secure-port= \
  16. --leader-elect=true \
  17. --port= \
  18. --tls-cert-file=/etc/kubernetes/ssl/kube-scheduler.pem \
  19. --tls-private-key-file=/etc/kubernetes/ssl/kube-scheduler-key.pem \
  20. --v="
  21. ## 分发配置文件
  22. [root@k8s-master01 ~]# ansible k8s-master -m copy -a 'src=/opt/k8s/cfg/kube-scheduler.conf dest=/etc/kubernetes/config'
7)启动脚本
需要指定需要加载的配置文件路径

  1. [root@k8s-master01 ~]# vim /opt/k8s/unit/kube-scheduler.service
  2. [Unit]
  3. Description=Kubernetes Scheduler Plugin
  4. Documentation=https://github.com/GoogleCloudPlatform/kubernetes
  5.  
  6. [Service]
  7. EnvironmentFile=-/etc/kubernetes/config/kube-scheduler.conf
  8. User=kube
  9. ExecStart=/usr/local/bin/kube-scheduler \
  10. $KUBE_LOGTOSTDERR \
  11. $KUBE_LOG_LEVEL \
  12. $KUBE_MASTER \
  13. $KUBE_SCHEDULER_ARGS
  14. Restart=on-failure
  15. LimitNOFILE=
  16.  
  17. [Install]
  18. WantedBy=multi-user.target
  19. ##脚本分发
  20. [root@k8s-master01 ~]# ansible k8s-master -m copy -a 'src=/opt/k8s/unit/kube-scheduler.service dest=/usr/lib/systemd/system/'
8)启动服务

  1. [root@k8s-master01 ~]# ansible k8s-master -m shell -a 'systemctl daemon-reload'
  2. [root@k8s-master01 ~]# ansible k8s-master -m shell -a 'systemctl enable kube-scheduler.service'
  3. [root@k8s-master01 ~]# ansible k8s-master -m shell -a 'systemctl start kube-scheduler.service'
9)验证leader主机

  1. [root@k8s-master01 ~]# kubectl get endpoints kube-scheduler --namespace=kube-system -o yaml
  2. apiVersion: v1
  3. kind: Endpoints
  4. metadata:
  5. annotations:
  6. control-plane.alpha.kubernetes.io/leader: '{"holderIdentity":"k8s-master03_e0e29681-666b-11e9-b086-000c2920229d","leaseDurationSeconds":15,"acquireTime":"2019-04-24T08:35:14Z","renewTime":"2019-04-24T08:36:08Z","leaderTransitions":0}'
  7. creationTimestamp: "2019-04-24T08:35:14Z"
  8. name: kube-scheduler
  9. namespace: kube-system
  10. resourceVersion: ""
  11. selfLink: /api/v1/namespaces/kube-system/endpoints/kube-scheduler
  12. uid: e17d5eee-666b-11e9-bdea-000c2920229d
  13. ## master03 为leader主机
10)验证master集群状态

在三个节点中,任一主机执行以下命令,都应返回集群状态信息
  1. [root@k8s-master02 config]# kubectl get cs
  2. NAME STATUS MESSAGE ERROR
  3. controller-manager Healthy ok
  4. scheduler Healthy ok
  5. etcd- Healthy {"health":"true"}
  6. etcd- Healthy {"health":"true"}
  7. etcd- Healthy {"health":"true"}

K8S从入门到放弃系列-(7)kubernetes集群之kube-scheduler部署的更多相关文章

  1. K8S从入门到放弃系列-(16)Kubernetes集群Prometheus-operator监控部署

    Prometheus Operator不同于Prometheus,Prometheus Operator是 CoreOS 开源的一套用于管理在 Kubernetes 集群上的 Prometheus 控 ...

  2. K8S从入门到放弃系列-(15)Kubernetes集群Ingress部署

    Ingress是kubernetes集群对外提供服务的一种方式.ingress部署相对比较简单,官方把相关资源配置文件,都已经集合到一个yml文件中(mandatory.yaml),镜像地址也修改为q ...

  3. K8S从入门到放弃系列-(14)Kubernetes集群Dashboard部署

    Dashboard是k8s的web界面,用户可以用 Kubernetes Dashboard 部署容器化的应用.监控应用.并对集群本身进行管理,在 Kubernetes Dashboard 中可以查看 ...

  4. K8S从入门到放弃系列-(13)Kubernetes集群mertics-server部署

    集群部署好后,如果我们想知道集群中每个节点及节点上的pod资源使用情况,命令行下可以直接使用kubectl top node/pod来查看资源使用情况,默认此命令不能正常使用,需要我们部署对应api资 ...

  5. K8S从入门到放弃系列-(12)Kubernetes集群Coredns部署

    摘要: 集群其他组件全部完成后我们应当部署集群 DNS 使 service 等能够正常解析,1.11版本coredns已经取代kube-dns成为集群默认dns. 1)下载yaml配置清单 [root ...

  6. K8S从入门到放弃系列-(11)kubernetes集群网络Calico部署

    摘要: 前面几个篇幅,已经介绍master与node节点集群组件部署,由于K8S本身不支持网络,当 node 全部启动后,由于网络组件(CNI)未安装会显示为 NotReady 状态,需要借助第三方网 ...

  7. K8S从入门到放弃系列-(10)kubernetes集群之kube-proxy部署

    摘要: kube-proxy的作用主要是负责service的实现,具体来说,就是实现了内部从pod到service和外部的从node port向service的访问 新版本目前 kube-proxy ...

  8. K8S从入门到放弃系列-(9)kubernetes集群之kubelet部署

    摘要: Kubelet组件运行在Node节点上,维持运行中的Pods以及提供kuberntes运行时环境,主要完成以下使命: 1.监视分配给该Node节点的pods 2.挂载pod所需要的volume ...

  9. K8S从入门到放弃系列-(6)kubernetes集群之kube-controller-manager部署

    摘要: 1.Kubernetes控制器管理器是一个守护进程它通过apiserver监视集群的共享状态,并进行更改以尝试将当前状态移向所需状态. 2.kube-controller-manager是有状 ...

随机推荐

  1. NetworkX系列教程(10)-算法之五:广度优先与深度优先

    小书匠Graph图论 重头戏部分来了,写到这里我感觉得仔细认真点了,可能在NetworkX中,实现某些算法就一句话的事,但是这个算法是做什么的,用在什么地方,原理是怎么样的,不清除,所以,我决定先把图 ...

  2. SSH dao层异常 org.hibernate.HibernateException: No Session found for current thread

    解决方法: 在 接口方法中添加 事务注解 即可. public interface IBase<PK extends Serializable, T> { @Transactional v ...

  3. Linux 网络性能测试工具 iperf 的安装和使用

    简介:Iperf是一个网络性能测试工具.可以测试TCP和UDP带宽质量,可以测量最大TCP带宽,具有多种参数和UDP特性,可以报告带宽,延迟抖动和数据包丢失.Iperf在Linux和windows平台 ...

  4. hadoop 2.x HA 出现ssh不能解析问题记录。

    在docker里面安装hadoop HA 在启动或者停止的时候报ssh不能解析问题. 问题现象: 发现图片不清晰:把问题现象粘贴如下: root@master:/usr/local/hadoop-2. ...

  5. weui-wxss框架实现博远企信小程序

  6. JAVA基础知识|Executors提供的四种线程池

    一.Thread与Executors 开启新的线程,我们经常会采用如下方法: Thread thread =new Thread(new Runnable() { @Override public v ...

  7. 2018-2019-2 20165234 《网络对抗技术》 Exp6 信息搜集与漏洞扫描

    Exp6 信息搜集与漏洞扫描 实验内容 1. 各种搜索技巧的应用 2. DNS IP注册信息的查询 3. 基本的扫描技术:主机发现.端口扫描.OS及服务版本探测.具体服务的查点(以自己主机为目标) 4 ...

  8. 纯CSS画三角形(带边框)

    实例一: <!DOCTYPE html> <html lang="en"> <head> <meta charset="UTF- ...

  9. python 设计模式之解释器(Interpreter)模式

    #写在前面 关于解释器模式,我在网上转了两三圈,心中有了那么一点概念 ,也不知道自己理解的是对还是错. 其实关于每一种设计模式,我总想找出一个答案,那就是为什么要用这种设计模式, 如果不用会怎么样,会 ...

  10. 关于Android studio下V4包 KeyEventCompat 类找不到问题

    V4包 KeyEventCompat 类找不到问题   本文链接:https://blog.csdn.net/shanshan_1117/article/details/84344557 今天我把su ...