k8s——pod(label和selector)】的更多相关文章

概述 在k8s中有一个非常核心的概念,就是label(标签),以及对label的使用,label selector label(标签) 定义:   标签这个概念和现实生活中的标签其实没有什么区别,如,苹果是水果,冰箱是家电,都是一种标签,类似的.在k8s中,一个label就是key/value对如:app:nginx   这个标签可以有使用者自己定义,然后附加到k8s中的资源对象上,比如,pod,node上等等 特性: label有如下的一些特点: label可以被附加到各种资源对象上 一个资源…
[k8s]k8s pod的4种网络模式最佳实战(externalIPs )       hostPort相当于docker run -p 8081:8080,不用创建svc,因此端口只在容器运行的vm上监听 缺点: 没法多pod负载 $ cat pod-hostport.yaml apiVersion: v1 kind: Pod metadata: name: webapp labels: app: webapp spec: containers: - name: webapp image: t…
一.k8s pod 在节点间调度控制 k8s起pod时,会通过调度器scheduler选择某个节点完成调度,选择在某个节点上完成pod创建.当需要在指定pod运行在某个节点上时,可以通过以下几种方式: 1. 在部署pod的yaml中,指定nodeName 指定了nodeName的Pod会直接跳过Scheduler的调度逻辑,直接写入PodList列表,该匹配规则是强制匹配.eg:apiVersion: extensions/v1beta1kind: Deploymentmetadata: nam…
在Kubernetes中有一个最复杂的调度器可以处理pod的分配策略.基于在pod规范中所提及的资源需求,Kubernetes调度器会自动选择最合适的节点来运行pod. 但在许多实际场景下,我们必须干预调度过程才能在pod和一个节点或两个特定pod之间进行匹配.因此,Kubernetes中有一种十分强大的机制来管理及控制pod的分配逻辑. 那么,本文将探索影响Kubernetes中默认调度决定的关键特性. 节点亲和性/反亲和性 Kubernetes一向以来都是依赖label和selector来对…
请查看官方的说明 kubectl cp --help 官方说使用cp , pod里需要有tar命令 从k8s pod 中 拷贝 文件到本地 这是我使用的命令 kubectl exec redis-6c98cb5b5f-nxb59 -- tar cPf - /data/dump_redis.rdb | sudo tar xf - -C . 出现这个报错,tar: Removing leading /' from member names` 可以忽略 会在当前目录产生 data/dump_redis…
1.创建 Deployment root@k8-deploy:~/k8s-yaml/controllers/deployments# vim nginx-deployment.yaml apiVersion: apps/v1 kind: Deployment metadata: name: nginx-deployment labels: app: nginx spec: replicas: 3 selector: matchLabels: app: nginx template: metada…
1.概述 在k8s中,有一个非常核心的概念,就是label(标签),以及对label的使用,label selector. 本文档中,我们就来看看:1.什么是标签,2.如何定义标签,3.什么是标签选择器,4.如何使用标签选择器 2.label(标签) 2.1.定义 标签这个概念和现实生活中的标签也没有什么两样,如,苹果是水果,冰箱是家电,都是一种标签,类似的,在k8s中,一个label就是一个key/value对(envronment:online). 这个标签可以由使用者自己来进行定义,然后附…
默认情况下,scheduler会将pod调度到所有可用的Node,不过有些情况我们希望将 Pod 部署到指定的 Node,比如将有大量磁盘 I/O 的 Pod 部署到配置了 SSD 的 Node:或者 Pod 需要 GPU,需要运行在配置了 GPU 的节点上. kubernetes通过label来实现这个功能 label 是 key-value 对,各种资源都可以设置 label,灵活添加各种自定义属性.比如执行如下命令标注 k8s-node1 是配置了 SSD 的节点 首先我们给k8s-nod…
一次迁移中出现的问题,因为要搬迁机房,集群中的节点服务器分布在两个机房,通过专线打通了,现在需要整体都迁移到其中一个机房,所以pod要进行迁移,机器资源也比较紧张,在迁移中zookeeper迁移出现问题. //master上查看zk pod情况 [root@master-web-38 ~]# kub…
我们知道,当访问量或资源需求过高时,使用:kubectl scale命令可以实现对pod的快速伸缩功能 但是我们平时工作中我们并不能提前预知访问量有多少,资源需求多少. 这就很麻烦了,总不能为了需求总是把pod设置为最多状态,这样太浪费资源:也不能当请求量上来以后再去伸缩pod,这样会有好多请求不成功. k8s既然是云原生时代的产品,当然得有智能,自动这些特性. 所以现在引入一个新的概念: HPA(Horizontal Pod Autoscaler ) pod的自动水平伸缩 有了HPA,我们就不…