k8s之Service详解-Service使用
实验环境准备
在使用service之前,首先利用deployment创建出3个pod,注意要为pod设置app=nginx-pod的标签
创建deployment.yaml,内容如下
apiVersion: apps/v1
kind: Deployment
metadata:
name: pc-deployment
namespace: dev
spec:
replicas: 3
selector:
matchLabels:
app: nginx-pod
template:
metadata:
labels:
app: nginx-pod
spec:
containers:
- name: nginx
image: nginx:1.17.1
ports:
- containerPort: 80
使用配置文件
[root@master ~]# vim deployment.yaml
[root@master ~]# kubectl create -f deployment.yaml
deployment.apps/pc-deployment created
[root@master ~]# kubectl get pod -n dev -o wide
NAME READY STATUS RESTARTS AGE IP NODE NOMINATED NODE READINESS GATES
pc-deployment-6696798b78-5d7rh 1/1 Running 0 4s 10.244.2.4 node2 <none> <none>
pc-deployment-6696798b78-5jbcr 1/1 Running 0 4s 10.244.1.26 node1 <none> <none>
pc-deployment-6696798b78-wbrfh 1/1 Running 0 4s 10.244.2.3 node2 <none> <none>
通过pod的Ip加上容器端口80访问nginx,发现可以访问
[root@master ~]# curl 10.244.2.4:80
<!DOCTYPE html>
<html>
<head>
<title>Welcome to nginx!</title>
为了方便后面的测试,修改下面三台nginx的index.html页面(三台修改的Ip地址不一致)
#修改第一个pod
[root@master ~]# kubectl exec -it pc-deployment-6696798b78-5d7rh -n dev /bin/sh
# echo "10.244.2.4" > /usr/share/nginx/html/index.html
# exit #测试访问
[root@master ~]# curl 10.244.2.4:80
10.244.2.4 #修改第二个pod
[root@master ~]# kubectl exec -it pc-deployment-6696798b78-5jbcr -n dev /bin/sh
# echo "10.244.1.26" > /usr/share/nginx/html/index.html
# exit #修改第三个pod
[root@master ~]# kubectl exec -it pc-deployment-6696798b78-wbrfh -n dev /bin/sh
# echo "10.244.2.3" > /usr/share/nginx/html/index.html
# exit
ClusterIp类型的Service
创建service-clusterip.yaml文件
apiVersion: v1
kind: Service
metadata:
name: service-clusterip
namespace: dev
spec:
selector:
app: nginx-pod
clusterIP: 10.97.97.97 #service的Ip地址,如果不写,会默认生成一个
type: ClusterIP
ports:
- port: 80 #service端口
targetPort: 80 #pod端口
使用配置文件
[root@master ~]# vim service-clusterip.yaml
[root@master ~]# kubectl create -f service-clusterip.yaml
service/service-clusterip created
[root@master ~]# kubectl get svc service-clusterip -n dev
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
service-clusterip ClusterIP 10.97.97.97 <none> 80/TCP 44s #查看service详细信息
[root@master ~]# kubectl describe svc service-clusterip -n dev
Name: service-clusterip
Namespace: dev
Labels: <none>
Annotations: <none>
Selector: app=nginx-pod
Type: ClusterIP
IP: 10.97.97.97
Port: <unset> 80/TCP
TargetPort: 80/TCP
Endpoints: 10.244.1.26:80,10.244.2.3:80,10.244.2.4:80
Session Affinity: None
Events: <none> #查看ipvs映射规则
[root@master ~]# ipvsadm -Ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
-> RemoteAddress:Port Forward Weight ActiveConn InActConn
TCP 10.97.97.97:80 rr
-> 10.244.1.27:80 Masq 1 0 0
-> 10.244.2.5:80 Masq 1 0 0
-> 10.244.2.6:80 Masq 1 0 0
EndPoint
Endpoint是k8s中的一个资源对象,存储在etcd中,用来记录一个service对应的所有pod的访问地址,它是根据service配置文件中的selector描述产生的
一个service由一组pod组成,这些pod通过endpoints暴露出来,endpoints是实现实际服务的端点集合。换句话说,service和pod之间的联系是通过endpoints实现的。
[root@master ~]# kubectl get endpoints -n dev -o wide
NAME ENDPOINTS AGE
service-clusterip 10.244.1.26:80,10.244.2.3:80,10.244.2.4:80 18m
负载分发策略
对service的访问被分发到了后端的pod上去,目前k8s提供了两种负载分发策略:
- 如果不定义,默认使用kube-proxy的策略,比如随机,轮询
- 基于客户端地址的会话保持模式,即来自同一个客户端发起的所有请求都会转发到一个固定的pod上,此模式可以使在spec中添加sessionAffinity:ClientIP选项
#查看ipvs映射规则
[root@master ~]# ipvsadm -Ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
-> RemoteAddress:Port Forward Weight ActiveConn InActConn
TCP 10.97.97.97:80 rr
-> 10.244.1.27:80 Masq 1 0 0
-> 10.244.2.5:80 Masq 1 0 0
-> 10.244.2.6:80 Masq 1 0 0 #循环访问测试
[root@master ~]# while true;do curl 10.97.97.97:80;sleep 5;done;
10.244.1.26
10.244.2.3
10.244.2.4
10.244.1.26
10.244.2.3
10.244.2.4
10.244.1.26
10.244.2.3
10.244.2.4
修改分发策略为sessionAffinity:ClientIP
#删除原来的service
[root@master ~]# kubectl delete -f service-clusterip.yaml
service "service-clusterip" deleted #更改service-clusterip.yaml
[root@master ~]# vim service-clusterip.yaml
apiVersion: v1
kind: Service
metadata:
name: service-clusterip
namespace: dev
spec:
sessionAffinity: ClientIP
selector:
app: nginx-pod
clusterIP: 10.97.97.97 #service的Ip地址,如果不写,会默认生成一个
type: ClusterIP
ports:
- port: 80 #service端口
targetPort: 80 #pod端口 #重建service
[root@master ~]# kubectl create -f service-clusterip.yaml
service/service-clusterip created #查看svc,可以发现新增了一项SessionAffinity
[root@master ~]# kubectl describe svc service-clusterip -n dev
Name: service-clusterip
Namespace: dev
Labels: <none>
Annotations: <none>
Selector: app=nginx-pod
Type: ClusterIP
IP: 10.97.97.97
Port: <unset> 80/TCP
TargetPort: 80/TCP
Endpoints: 10.244.1.27:80,10.244.2.5:80,10.244.2.6:80
Session Affinity: ClientIP
Events: <none>
重新查看ipvs映射规则【persistent代表持久】,发现新增了persistent 10800秒,代表持续180分钟
[root@master ~]# ipvsadm -Ln
IP Virtual Server version 1.2.1 (size=4096)
Prot LocalAddress:Port Scheduler Flags
-> RemoteAddress:Port Forward Weight ActiveConn InActConn
TCP 10.97.97.97:80 rr persistent 10800
-> 10.244.1.27:80 Masq 1 0 0
-> 10.244.2.5:80 Masq 1 0 0
-> 10.244.2.6:80 Masq 1 0 0
再次进行循环访问测试,发现这次只访问一个pod
[root@master ~]# while true;do curl 10.97.97.97:80;sleep 5;done;
10.244.2.4
10.244.2.4
10.244.2.4
10.244.2.4
10.244.2.4
10.244.2.4
HeadLiness类型的Service
在某些场景中,开发人员可能不想使用Service提供的负载均衡功能,而希望自己来控制负载均衡策略,针对这种情况,k8s提供了HeadLiness Service,这类Service不会分配ClusterIP,如果想要访问Service,只能通过service的域名进行查询。
创建service-headliness.yaml
apiVersion: v1
kind: Service
metadata:
name: service-headliness
namespace: dev
spec:
selector:
app: nginx-pod
clusterIP: None #将clusterIP设置为None,即可创建headliness Service
type: ClusterIP
ports:
- port: 80
targetPort: 80
使用配置文件
[root@master ~]# vim service-headliness.yaml
[root@master ~]# kubectl create -f service-headliness.yaml
service/service-headliness created
[root@master ~]# kubectl get svc service-headliness -n dev
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
service-headliness ClusterIP None <none> 80/TCP 31s
[root@master ~]# kubectl describe svc service-headliness -n dev
Name: service-headliness
Namespace: dev
Labels: <none>
Annotations: <none>
Selector: app=nginx-pod
Type: ClusterIP
IP: None
Port: <unset> 80/TCP
TargetPort: 80/TCP
Endpoints: 10.244.1.27:80,10.244.2.5:80,10.244.2.6:80
Session Affinity: None
Events: <none>
查看域名解析情况
[root@master ~]# kubectl exec -it pc-deployment-6696798b78-5d7rh -n dev /bin/sh
# cat /etc/resolv.conf
nameserver 10.96.0.10
search dev.svc.cluster.local svc.cluster.local cluster.local
options ndots:5
# exit #通过域名进行查询
[root@master ~]# dig @10.96.0.10 service-headliness.dev.svc.cluster.local ; <<>> DiG 9.11.4-P2-RedHat-9.11.4-26.P2.el7_9.5 <<>> @10.96.0.10 service-headliness.dev.svc.cluster.local
; (1 server found)
;; global options: +cmd
;; Got answer:
;; WARNING: .local is reserved for Multicast DNS
;; You are currently testing what happens when an mDNS query is leaked to DNS
;; ->>HEADER<<- opcode: QUERY, status: NOERROR, id: 40115
;; flags: qr aa rd; QUERY: 1, ANSWER: 3, AUTHORITY: 0, ADDITIONAL: 1
;; WARNING: recursion requested but not available ;; OPT PSEUDOSECTION:
; EDNS: version: 0, flags:; udp: 4096
;; QUESTION SECTION:
;service-headliness.dev.svc.cluster.local. IN A ;; ANSWER SECTION:
service-headliness.dev.svc.cluster.local. 30 IN A 10.244.2.6
service-headliness.dev.svc.cluster.local. 30 IN A 10.244.1.27
service-headliness.dev.svc.cluster.local. 30 IN A 10.244.2.5 ;; Query time: 334 msec
;; SERVER: 10.96.0.10#53(10.96.0.10)
;; WHEN: 四 8月 12 11:26:01 CST 2021
;; MSG SIZE rcvd: 237
NodePort类型的Service
在之前的样例中,创建的Service的IP地址只有集群内部可以访问,如果希望Service暴露给集群外部使用,那么就要使用到另外一种类型的Service,称为NodePort类型。NodePor的工作原理其实就是将service的端口映射到Node的一个端口上,然后就可以通过NodeIp:NodePort来访问service了。
创建service-nodeport.yaml,内容如下
apiVersion: v1
kind: Service
metadata:
name: service-nodeport
namespace: dev
spec:
selector:
app: nginx-pod
type: NodePort #service类型
ports:
- port: 80
nodePort: 30002 #指定绑定的node的端口(默认的取值范围是:30000-32767),如果不指定,会默认分配
targetPort: 80
使用配置文件
[root@master ~]# vim service-nodeport.yaml
[root@master ~]# kubectl create -f service-nodeport.yaml
service/service-nodeport created
[root@master ~]# kubectl get svc service-nodeport -n dev
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
service-nodeport NodePort 10.103.29.82 <none> 80:30002/TCP 14s
通过电脑的浏览器对node进行访问,访问地址:master的主机ip加上30002端口
发现能够成功访问了
LoadBalancer类型的Service
LoadBalancer和NodePort很相似,目的都是向外部暴露一个端口,区别在于LoadBalancer会在集群的外部再来做一个负载均衡设备,而这个设备需要外部环境支持的,外部服务发送到这个设备上的请求,会被设备负载之后转发到集群中。
ExternalName类型的Service
ExternalName类型的Service用于引入集群外部的服务,它通过externalName属性指定外部一个服务的地址,然后在集群内部访问此Service就可以访问到外部的服务了
创建service-externalname.yaml,内容如下
apiVersion: v1
kind: Service
metadata:
name: service-externalname
namespace: dev
spec:
type: ExternalName #service类型
externalName: www.baidu.com #改成ip地址也可以
使用配置文件
[root@master ~]# vim service-externalname.yaml
[root@master ~]# kubectl create -f service-externalname.yaml
service/service-externalname created
[root@master ~]# kubectl get svc service-externalname -n dev
NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE
service-externalname ExternalName <none> www.baidu.com <none> 17s
域名解析
[root@master ~]# dig @10.96.0.10 service-externalname.dev.svc.cluster.local ; <<>> DiG 9.11.4-P2-RedHat-9.11.4-26.P2.el7_9.5 <<>> @10.96.0.10 service-externalname.dev.svc.cluster.local
; (1 server found)
;; global options: +cmd
;; Got answer:
;; WARNING: .local is reserved for Multicast DNS
;; You are currently testing what happens when an mDNS query is leaked to DNS
;; ->>HEADER<<- opcode: QUERY, status: NOERROR, id: 27636
;; flags: qr aa rd; QUERY: 1, ANSWER: 4, AUTHORITY: 0, ADDITIONAL: 1
;; WARNING: recursion requested but not available ;; OPT PSEUDOSECTION:
; EDNS: version: 0, flags:; udp: 4096
;; QUESTION SECTION:
;service-externalname.dev.svc.cluster.local. IN A ;; ANSWER SECTION:
service-externalname.dev.svc.cluster.local. 30 IN CNAME www.baidu.com.
www.baidu.com. 30 IN CNAME www.a.shifen.com.
www.a.shifen.com. 30 IN A 39.156.66.14
www.a.shifen.com. 30 IN A 39.156.66.18 ;; Query time: 31 msec
;; SERVER: 10.96.0.10#53(10.96.0.10)
;; WHEN: 四 8月 12 11:58:31 CST 2021
;; MSG SIZE rcvd: 247
k8s之Service详解-Service使用的更多相关文章
- 10.service 详解
10.service 详解 什么是service:Kubernetes中的Service 是一个抽象的概念,它定义了Pod的逻辑分组和一种可以访问它们的策略,这组Pod能被Service访问,使用YA ...
- k8s之yaml详解
k8s之yaml详解 apiVersion: v1 #指定api版本,此值必须在kubectl apiversion中 kind: Pod #指定创建资源的角色/类型 metadata: #资源的元数 ...
- kubernetes 实践五:Service详解
Service 是 k8s 的核心概念,通过创建Service,可以为一组具有相同功能的容器应用提供一个统一的入口地址,并且将请求负载分发到后端的各个容器应用上. Service 的定义 Servic ...
- Android中的Service详解
今天我们就来介绍一下Android中的四大组件中的服务Service,说到Service, 它分为本地服务和远程服务:区分这两种服务就是看客户端和服务端是否在同一个进程中,本地服务是在同一进程中的,远 ...
- 淘宝(阿里百川)手机客户端开发日记第六篇 Service详解(五)
我们现在对上一节中的DEMO进行改进,在服务中开启线程来执行. package com.example.service; import android.app.Service; import andr ...
- 淘宝(阿里百川)手机客户端开发日记第六篇 Service详解(四)
DEMO1:在Activity里声明一个回调方法,当service完成任务后,调用这个回调方法. 首先,我们先继承service,来创建服务,代码如下: package com.example.ser ...
- Android Service 详解
一个Service也是一种应用程序组件,它运行在后台以提供某种服务,通常不具有可见的用户界面.其它的应用程序组件可以启动一个 Service,即使在用户切换到另外一个应用程序后,这个Service还是 ...
- android开发之service详解
service作为android的四大组件之一,其重要性可想而知,在开发中,我们经常把一些不需要与用户进行交互的工作放在service中来完成,service运行在后台,这样有些人可能会产生错觉,以为 ...
- Android Service详解
service作为四大组件值得我们的更多的关注 在Android中,Activity主要负责前台页面的展示,Service主要负责需要长期运行的任务.例如,一个从service播放音乐的音乐播放器,应 ...
随机推荐
- 33、jQuery介绍
33.1.jQuery是什么: (1)jQuery由John Resig创建,至今已吸引了来自世界各地的众多 javascript 高手加入其team. (2)jQuery是继prototype之后又 ...
- 16、如何将安装在chrome上的插件(扩展程序)打包成".crx"文件
1.打开扩展程序: 2.打开开发者模式并选择要打包的插件: 3.打包扩展程序: (1) (2) (3)
- Vue style与css的var()
vue绑定style直接给css的var变量传递一个值,然后结合css的var()函数使用这个值. 在data里面定义一个变量然后给定一个值,后期修改这个值之后,所有依赖这个变量的css样式都会被响应 ...
- 4.3Unicode和ASCII码
- 箭头函数中this指向问题
// 问题:箭头函数中的this是如何查找的? // 答案:向外层作用域中,一层层查找this,直到有this的定义
- Java:java -jar命令讲解
1. 当前ssh窗口被锁定,可按CTRL + C打断程序运行,或直接关闭窗口,程序退出 #正常启动jar包 java -jar XXX.jar#当前ssh窗口被锁定,可按CTRL + C打断程序运行, ...
- 结构型模式 -- 代理模式(静态代理&动态代理)
静态代理: 真实角色和代理角色实现相同的接口,代理角色拥有真实角色的引用.代理角色去执行方法,对于某些"真正"需要真实角色自己执行的方法时,在代理角色内部就调用真实角色的方法,其他 ...
- Spring Ioc和依赖注入
总结一下近来几天的学习,做个笔记 以下是Spring IoC相关内容: IoC(Inversion of Control):控制反转: 其主要功能可简单概述为:将 用 new 去创建实例对象,转换为让 ...
- webpack(11)配置文件分离为开发配置、生成配置和基础配置
前言 上篇我们已经配置好了本地开发服务器,但是配置的相对比较凌乱,一个文件中有些是开发时用到的配置,有些是生成时用到的配置,有些是开发和生成都要用到的配置,所以我们这里把环境分为3个环境 webpac ...
- VMware Esxi开通SSH功能
ESXi 5.5是直接安装在物理主机上的一个虚拟机系统,本质上是一个Linux系统.平时可以通过VMware Client端或者VMware vCenter进行管理,但对于一些特殊的VMware命令或 ...