学习k8s(三)
一、Kubernetes核心概念
1、Kubernetes介绍
Kubernetes(k8s)是自动化容器操作的开源平台,这些操作包括部署,调度和节点集群间扩展。如果你曾经用过Docker容器技术部署容器,那么可以将Docker看成Kubernetes内部使用的低级别组件。Kubernetes不仅仅支持Docker,还支持Rocket,这是另一种容器技术。
使用Kubernetes可以:
自动化容器的部署和复制
随时扩展或收缩容器规模
将容器组织成组,并且提供容器间的负载均衡
很容易地升级应用程序容器的新版本
提供容器弹性,如果容器失效就替换它,等等... 实际上,使用Kubernetes只需一个部署文件,使用一条命令就可以部署多层容器(前端,后台等)的完整集群:
$ kubectl create -f single-config-file.yaml kubectl是和Kubernetes API交互的命令行程序。现在介绍一些核心概念。
2、集群
集群是一组节点,这些节点可以是物理服务器或者虚拟机,之上安装了Kubernetes平台。下图展示这样的集群。注意该图为了强调核心概念有所简化。这里可以看到一个典型的Kubernetes架构图。
上图可以看到如下组件,使用特别的图标表示Service和Label:
- Pod
- Container(容器)
- Label()(标签)
- Replication Controller(复制控制器)
- Service()(服务)
- Node(节点)
- Kubernetes Master(Kubernetes主节点)
3、Pod
Pod(上图绿色方框)安排在节点上,包含一组容器和卷。同一个Pod里的容器共享同一个网络命名空间,可以使用localhost互相通信。Pod是短暂的,不是持续性实体。你可能会有这些问题:
如果Pod是短暂的,那么我怎么才能持久化容器数据使其能够跨重启而存在呢? 是的,Kubernetes支持卷的概念,因此可以使用持久化的卷类型。
是否手动创建Pod,如果想要创建同一个容器的多份拷贝,需要一个个分别创建出来么?可以手动创建单个Pod,但是也可以使用Replication Controller使用Pod模板创建出多份拷贝,下文会详细介绍。
如果Pod是短暂的,那么重启时IP地址可能会改变,那么怎么才能从前端容器正确可靠地指向后台容器呢?这时可以使用Service,下文会详细介绍。
4、Lable
正如图所示,一些Pod有Label()。一个Label是attach到Pod的一对键/值对,用来传递用户定义的属性。比如,你可能创建了一个"tier"和“app”标签,通过Label(tier=frontend, app=myapp)来标记前端Pod容器,使用Label(tier=backend, app=myapp)标记后台Pod。然后可以使用Selectors选择带有特定Label的Pod,并且将Service或者Replication Controller应用到上面。
5、Replication Controller
是否手动创建Pod,如果想要创建同一个容器的多份拷贝,需要一个个分别创建出来么,能否将Pods划到逻辑组里? Replication Controller确保任意时间都有指定数量的Pod“副本”在运行。如果为某个Pod创建了Replication Controller并且指定3个副本,它会创建3个Pod,并且持续监控它们。如果某个Pod不响应,那么Replication Controller会替换它,保持总数为3.如下面的动画所示:
如果之前不响应的Pod恢复了,现在就有4个Pod了,那么Replication Controller会将其中一个终止保持总数为3。如果在运行中将副本总数改为5,Replication Controller会立刻启动2个新Pod,保证总数为5。还可以按照这样的方式缩小Pod,这个特性在执行滚动升级时很有用。 当创建Replication Controller时,需要指定两个东西:
Pod模板:用来创建Pod副本的模板
Label:Replication Controller需要监控的Pod的标签。 现在已经创建了Pod的一些副本,那么在这些副本上如何均衡负载呢?我们需要的是Service。
6、Service
如果Pods是短暂的,那么重启时IP地址可能会改变,怎么才能从前端容器正确可靠地指向后台容器呢? Service是定义一系列Pod以及访问这些Pod的策略的一层抽象。Service通过Label找到Pod组。因为Service是抽象的,所以在图表里通常看不到它们的存在,这也就让这一概念更难以理解。 现在,假定有2个后台Pod,并且定义后台Service的名称为‘backend-service’,lable选择器为(tier=backend, app=myapp)。backend-service 的Service会完成如下两件重要的事情:
会为Service创建一个本地集群的DNS入口,因此前端Pod只需要DNS查找主机名为 ‘backend-service’,就能够解析出前端应用程序可用的IP地址。
现在前端已经得到了后台服务的IP地址,但是它应该访问2个后台Pod的哪一个呢?Service在这2个后台Pod之间提供透明的负载均衡,会将请求分发给其中的任意一个(如下面的动画所示)。通过每个Node上运行的代理(kube-proxy)完成。这里有更多技术细节。 下述动画展示了Service的功能。注意该图作了很多简化。如果不进入网络配置,那么达到透明的负载均衡目标所涉及的底层网络和路由相对先进。如果有兴趣,这里有更深入的介绍。
有一个特别类型的Kubernetes Service,称为'LoadBalancer',作为外部负载均衡器使用,在一定数量的Pod之间均衡流量。比如,对于负载均衡Web流量很有用。
7、Node
节点(上图橘色方框)是物理或者虚拟机器,作为Kubernetes worker,通常称为Minion。每个节点都运行如下Kubernetes关键组件:
Kubelet:是主节点代理。
Kube-proxy:Service使用其将链接路由到Pod,如上文所述。
Docker或Rocket:Kubernetes使用的容器技术来创建容器。
8、Kubernetes Master
集群拥有一个Kubernetes Master(紫色方框)。Kubernetes Master提供集群的独特视角,并且拥有一系列组件,比如Kubernetes API Server。API Server提供可以用来和集群交互的REST端点。master节点包括用来创建和复制Pod的Replication Controller。
二、二进制源码安装部署(master节点)
1、环境
主机 | ip地址 | 软件版本 |
k8s-master | 192.168.4.11 | docker-1.12.6-71 |
k8s-node | 192.168.4.12 | kubernetes-1.6.13 |
bin:二进制文件,不需要安装,直接运行
kubernetes.tar.gz:源码包文件
docker镜像文件:kubernetes-dashboard-amd64-v1.5.1.tar、pause-amd64-3.0.tar
docker pull gcr.azk8s.cn/google_containers/pause-amd64:3.0
docker pull gcr.azk8s.cn/google_containers/kubernetes-dashboard-amd64:v1.5.1
bin目录
导入两个docker镜像
docker load < pause-amd64-3.0.tar
docker load < kubernetes-dashboard-amd64-v1.5.1.tar
2、安装etcd
1、yum安装
yum -y install etcd
2、修改配置
修改etcd配置文件监听地址
# vim /etc/etcd/etcd.conf
6 ETCD_LISTEN_CLIENT_URLS="http://192.168.4.11:2379"
21 ETCD_ADVERTISE_CLIENT_URLS="http://192.168.4.11:2379"
3、启动服务
systemctl start etcd.service
systemctl enable etcd.service
# 2379端口 是客户端连接端口
# 2380端口 是etcd集群连接端口
下载二进制文件的脚本,因为无法访问google所以这里我们是下不下来的
/root/k8s/kubernetes/cluster/get-kube-binaries.sh
我准备好的所需二进制文件(bin目录)
部署master
tar xf kubernetes.tar.gz
cd k8s/kubernetes/cluster/centos/master/scripts/
环境初始化
首先保证etcd2379端口存在 不然之后都无法操作 1、创建目录
因为安装脚本中会把配置文件和二进制文件放到指定的目录下面
mkdir -p /opt/kubernetes/{cfg,bin} 2、把所需要得二进制文件拷贝到指定目录(提前下载好的二进制文件)
cd k8s/bin/
mv * /opt/kubernetes/bin/
3、配置启动kube-apiserver
cd /root/k8s/kubernetes/cluster/centos/master/scripts/
apiserver.sh其中有四个传参
MASTER_ADDRESS=${1:-"8.8.8.18"} MASTER地址
ETCD_SERVERS=${2:-"http://8.8.8.18:2379"} ETCD地址
SERVICE_CLUSTER_IP_RANGE=${3:-"10.10.10.0/24"} 服务的范围
ADMISSION_CONTROL=${4:-""} 资源控制列表
启动服务
./apiserver.sh 192.168.4.11 http://192.168.4.11:2379 10.1.0.0/16
查看服务和端口
systemctl status kube-apiserver.service
lsof -i :8080
脚本都干了什么
1、在/opt/kubernetes/cfg/目录下,创建了kube-apiserver配置文件
2、创建了/usr/lib/systemd/system/kube-apiserver.service 服务
kubernetes API Server的介绍
kube-apiserver提供了k8s各类资源对象(pod,RC,Service等)的增删改查及watch等HTTP Rest接口,是整个系统的数据总线和数据中心。
kubernetes API Server的功能:
提供了集群管理的REST API接口(包括认证授权、数据校验以及集群状态变更);
提供其他模块之间的数据交互和通信的枢纽(其他模块通过API Server查询或修改数据,只有API Server才直接操作etcd);
是资源配额控制的入口;
拥有完备的集群安全机制.
4、配置启动kube-controller-manager
controller-manager.sh 只有一个传参
MASTER_ADDRESS=${1:-"8.8.8.18"} master地址
启动服务
./controller-manager.sh 192.168.4.11
查看服务和端口
systemctl status kube-controller-manager.service
lsof -i :10252
介绍和功能
kube-controller-manager:副本控制器,监听pod副本数,使用10252端口
5、配置启动kube-scheduler
scheduler.sh 只有一个传参
MASTER_ADDRESS=${1:-"8.8.8.18"} master地址
启动服务
./scheduler.sh 192.168.4.11
查看服务和端口
systemctl status kube-scheduler.service
lsof -i :10251
介绍和功能
kube-scheduler:资源调度器, 使用10251端口
6、测试
设置环境变量
# vim .bash_profile
PATH=$PATH:$HOME/bin:/opt/kubernetes/bin # source .bash_profile
查看组件状态
kubectl -s http://192.168.2.100:8080 get cs
三、二进制源码安装部署(node节点)
环境
docker load < kubernetes-dashboard-amd64-v1.5.1.tar
docker load < pause-amd64-3.0.tar
mkdir -p /opt/kubernetes/{cfg,bin}
mv /root/k8s/bin/* /opt/kubernetes/bin/
tar xf kubernetes.tar.gz
1、安装kubelet
在每个节点(node)上都要运行一个 worker 对容器进行生命周期的管理,这个 worker 程序就是 kubelet。
简单地说,kubelet?的主要功能就是定时从某个地方获取节点上 pod/container 的期望状态(运行什么容器、运行的副本数量、网络或者存储如何配置等等),并调用对应的容器平台接口达到这个状态。 kubelet 除了这个最核心的功能之外,还有很多其他特性:
定时汇报当前节点的状态给 apiserver,以供调度的时候使用
镜像和容器的清理工作,保证节点上镜像不会占满磁盘空间,退出的容器不会占用太多资源
运行 HTTP Server,对外提供节点和 pod 信息,如果在 debug 模式下,还包括调试信息
kubelet.sh 其中有四个传参
MASTER_ADDRESS=${1:-"8.8.8.18"} master地址
NODE_ADDRESS=${2:-"8.8.8.20"} node地址
DNS_SERVER_IP=${3:-"192.168.3.100"}
DNS_DOMAIN=${4:-"cluster.local"}
启动服务
./kubelet.sh 192.168.4.11 192.168.4.12
查看服务和端口
systemctl status kubelet.service
lsof -i :10250
2、安装proxy
在每个节点上运行网络代理。这反映每个节点上 Kubernetes API 中定义的服务,并且可以做简单的 TCP 和 UDP 流转发或在一组后端中轮询,进行 TCP 和 UDP 转发
proxy.sh 其中有两个传参
MASTER_ADDRESS=${1:-"8.8.8.18"} master地址
NODE_ADDRESS=${2:-"8.8.8.20"} node地址
启动服务
./proxy.sh 192.168.4.11 192.168.4.12
查看服务和端口
systemctl status kube-proxy.service
lsof -i :10249
3、测试
master执行
kubectl get node
NAME STATUS AGE VERSION
192.168.4.12 Ready 12d v1.6.13
四、网络
1、Flannel介绍
Flannel是CoreOS团队针对Kubernetes设计的一个网络规划服务,简单来说,它的功能是让集群中的不同节点主机创建的Docker容器都具有全集群唯一的虚拟IP地址。
默认的Docker配置中,每个节点上的Docker服务会分别负责所在节点容器的IP分配。这样导致的一个问题是,不同节点上容器可能获得相同的内外IP地址。
Flannel的设计目的就是为集群中的所有节点重新规划IP地址的使用规则,从而使得不同节点上的容器能够获得“同属一个内网”且”不重复的”IP地址,并让属于不同节点上的容器能够直接通过内网IP通信。
Flannel实质上是一种“覆盖网络(overlay network)”,也就是将TCP数据包装在另一种网络包里面进行路由转发和通信,目前已经支持UDP、VxLAN、AWS VPC和GCE路由等数据转发方式。
2、安装配置
官网下载flannel
https://github.com/coreos/flannel/releases/tag/v0.9.1
wget https://github.com/coreos/flannel/releases/download/v0.9.1/flannel-v0.9.1-linux-amd64.tar.gz
二进制文件和执行脚本,存放路径
/root/k8s/kubernetes/cluster/centos/node/scripts/flannel.sh
tar xf flannel-v0.9.1-linux-amd64.tar.gz
cp -a flanneld /opt/kubernetes/bin/flanneld
flannel.sh 其中有两个传参
ETCD_SERVERS=${1:-"http://8.8.8.18:2379"} etcd地址
FLANNEL_NET=${2:-"172.16.0.0/16"} flannel创建的网络
启动服务
./flannel.sh http://192.168.4.11:2379 10.2.0.0/16
systemctl start flanneld.service
查看服务和网络
systemctl status flannel.service
ifconfig flannel
配置Docker里使用Flannel网络
# vim /root/k8s/kubernetes/cluster/centos/node/scripts/docker.sh
DOCKER_OPTS="-H tcp://127.0.0.1:4243 -H unix:///var/run/docker.sock --selinux-enabled=false ${DOCKER_OPTS}"
有些版本不支持overlay存储模式所以如果有报错就删除 -s overlay
启动docker
./docker.sh
如果执行还是启动不起来,进行如下操作
rm -f /opt/kubernetes/bin/dockerd
ln -s /usr/bin/dockerd /opt/kubernetes/bin/
配置完成后查看网络状态
ifconfig docker0 && ifconfig flannel
测试网络
docker run -it --name test1 busybox
学习k8s(三)的更多相关文章
- Alibaba Nacos 学习(三):Spring Cloud Nacos Discovery - FeignClient,Nacos 服务注册与发现
Alibaba Nacos 学习(一):Nacos介绍与安装 Alibaba Nacos 学习(二):Spring Cloud Nacos Config Alibaba Nacos 学习(三):Spr ...
- Oracle学习笔记三 SQL命令
SQL简介 SQL 支持下列类别的命令: 1.数据定义语言(DDL) 2.数据操纵语言(DML) 3.事务控制语言(TCL) 4.数据控制语言(DCL)
- 从零开始学习jQuery (三) 管理jQuery包装集
本系列文章导航 从零开始学习jQuery (三) 管理jQuery包装集 一.摘要 在使用jQuery选择器获取到jQuery包装集后, 我们需要对其进行操作. 本章首先讲解如何动态的创建元素, 接着 ...
- 前端学习 第三弹: JavaScript语言的特性与发展
前端学习 第三弹: JavaScript语言的特性与发展 javascript的缺点 1.没有命名空间,没有多文件的规范,同名函数相互覆盖 导致js的模块化很差 2.标准库很小 3.null和unde ...
- Android Animation学习(三) ApiDemos解析:XML动画文件的使用
Android Animation学习(三) ApiDemos解析:XML动画文件的使用 可以用XML文件来定义Animation. 文件必须有一个唯一的根节点: <set>, <o ...
- 三、Android学习第三天——Activity的布局初步介绍(转)
(转自:http://wenku.baidu.com/view/af39b3164431b90d6c85c72f.html) 三.Android学习第三天——Activity的布局初步介绍 今天总结下 ...
- JavaWeb学习总结(三)——Tomcat服务器学习和使用(二) 包含https 非对称秘钥 NB
JavaWeb学习总结(三)--Tomcat服务器学习和使用(二) 一.打包JavaWeb应用 在Java中,使用"jar"命令来对将JavaWeb应用打包成一个War包,jar命 ...
- MyEclipse Spring 学习总结三 SpringMVC
MyEclipse Spring 学习总结三 SpringMVC 一.SpringMVC原理 1.Springmvc 框架介绍 1)Spring 框架停工了构建Web应用程序的全功能MVC模块.Spr ...
- Quartz定时任务学习(二)web应用/Quartz定时任务学习(三)属性文件和jar
web中使用Quartz 1.首先在web.xml文件中加入 如下内容(根据自己情况设定) 在web.xml中添加QuartzInitializerServlet,Quartz为能够在web应用中使用 ...
- MyBatis学习系列三——结合Spring
目录 MyBatis学习系列一之环境搭建 MyBatis学习系列二——增删改查 MyBatis学习系列三——结合Spring MyBatis在项目中应用一般都要结合Spring,这一章主要把MyBat ...
随机推荐
- golang线程安全
目录 1.golang的map是线程安全的吗?怎么安全使用map 2.线程独享什么,共享什么 3.进程状态转换 4.Log包线程安全吗? 5.写的循环队列是不是线程安全? 6.go协程线程安全吗 7. ...
- .NET 5+ 中已过时的功能
从 .NET 5 开始,一些新标记为已过时的 API 使用 ObsoleteAttribute 上的两个新属性. ObsoleteAttribute.DiagnosticId 属性指示编译器使用自定义 ...
- 修改安卓AVD虚拟机的默认下载路径
因为安卓虚拟机的默认下载路径是在C盘,会在C盘中的.android文件中下载虚拟机,非常的占用C盘的宝贵资源,而且我发现这个.android文件即使删掉,只要打开AndroidStudio软件,它就会 ...
- C语言每日一题
66. 加一 /** * Note: The returned array must be malloced, assume caller calls free(). */ /* 从后向前(从个位)开 ...
- Python数据类型的if判断
Python数据类型的if判断 1.字符串判断 # -*- coding: utf-8 -*- ''' @Time : 2021/12/13 15:56 @Author : ziqingbaojian ...
- iOS实现组件录屏视频不可见,用户肉眼可见(类似系统键盘效果)
系统键盘在密码框输入时,如果用户开启录屏,键盘在录屏得到的视频里会不可见,但是用户在录屏时却能看到. 为了实现这个效果,利用UItextfield在录屏下视频不可见的特性,将实现这一效果的私有UIvi ...
- 【FAQ】接入HMS Core推送服务过程中一些常见问题总结
HMS Core 推送服务(Push Kit)是华为提供的消息推送平台,建立了从云端到终端的消息推送通道.开发者通过集成推送服务,可以向客户端应用实时推送消息,构筑良好的用户关系,提升用户的感知度和活 ...
- zabbix--客户端部署(新手入门)
zabbix--客户端部署 机器环境部署:我准备的一台zabbix客户端#可以准备多台 ip: 安装软件包 [root@server1 ~]# rpm -Uvh https://repo.zabbix ...
- 4、mysql的存储引擎
存储引擎 存储引擎是负责对表中的数据进行提取和写入工作的,我们可以为不同的表设置不同的存储引擎,也就是说不同的表可以有不同的物理存储结构,不同的提取和写入方式. 1.1 InnoDB 引擎:具备外键支 ...
- 洛谷 P1020 [NOIP1999 普及组] 导弹拦截
Coidng #include <iostream> #include <algorithm> #include <cstring> #include <ve ...