一、emptyDir持久化存储配置

  emptyDir 的一些用途:

      • 缓存空间,例如基于磁盘的归并排序。
      • 为耗时较长的计算任务提供检查点,以便任务能方便地从崩溃前状态恢复执行。
      • 在 Web 服务器容器服务数据时,保存内容管理器容器获取的文件。

    和上述 volume 不同的是,如果删除 Pod,emptyDir 卷中的数据也将被删除,一般 emptyDir卷用

    于 Pod 中的不同 Container 共享数据。它可以被挂载到相同或不同的路径上。默认情况下,

    emptyDir 卷支持节点上的任何介质,可能是 SSD、磁盘或网络存储,具体取决于自身的环境。可以将

    emptyDir.medium 字段设置为 Memory,让 Kubernetes 使用 tmpfs(内存支持的文件系统),虽然 tmpfs

    非常快,但是 tmpfs 在节点重启时,数据同样会被清除,并且设置的大小会被计入到 Container 的内存限制当中。

  说明:

    当启用 SizeMemoryBackedVolumes 特性门控时, 你可以为基于内存提供的卷指定大小。

     如果未指定大小,则基于内存的卷的大小为 Linux 主机上内存的 50%

  1-1、创建emptyDir yaml文件

vim emptydir-volume.yaml

apiVersion: apps/v1
kind: Deployment
metadata:
labels:
app: emptydir-volume
name: emptydir-volume
spec:
replicas: 1
selector:
matchLabels:
app: emptydir-volume
template:
metadata:
creationTimestamp: null
labels:
app: emptydir-volume
spec:
containers:
- image: nginx:1.16.1-alpine
name: nginx
volumeMounts: #容器内挂载参数值
- mountPath: /mnt #容器内挂载参数目录路径
name: emptydir-share #挂载名字,名称要跟volume. - name 名称一致
volumes: #创建挂载模式参数值
- name: emptydir-share #挂载存储名称
emptyDir: {} #设置为emptyDir挂载模式

  1-2、执行创建的emptyDir yaml文件命令

#创建 emptyDir 命令
kubectl create -f emptydir-volume.yaml #查看创建状态命令
kubectl get pod

  注:emptyDir容器数据共享最好是一个yaml文件实现一个容器两个运气,这样才能实现数据共享。

    上面的emptyDir yaml文件只需在配置文件里containers 下面添加一个镜像配置即可

二、hostPath持久化数据存储

  2-1、创建hostPath yaml文件

vim hostpath-volume.yaml

apiVersion: apps/v1
kind: Deployment
metadata:
labels:
app: hostpath-volume
name: hostpath-volume
spec:
replicas: 1
selector:
matchLabels:
app: hostpath-volume
template:
metadata:
creationTimestamp: null
labels:
app: hostpath-volume
spec:
containers:
- image: nginx:1.16.1-alpine
name: nginx
volumeMounts:
- mountPath: /opt #挂载容器目录路径
name: hostpath-share
volumes:
- name: hostpath-share
hostPath: #设置为hostPath数据持久化
path: /data #指定宿主机目录,这个目录每个节点需要都存在
type: Directory #设置hostPath type类型

  注:hostPath 卷常用的 type(类型)如下:

    1) type 为空字符串:默认选项,意味着挂载 hostPath 卷之前不会执行任何检查。

    2) DirectoryOrCreate:如果给定的 path 不存在任何东西,那么将根据需要

      创建一个权限为0755 的空目录,和 Kubelet 具有相同的组和权限。

    3) Directory:目录必须存在于给定的路径下。

    4) FileOrCreate:如果给定的路径不存储任何内容,则会根据需要创建一个空文件,

      权限设置为 0644,和 Kubelet 具有相同的组和所有权。

    5) File:文件,必须存在于给定路径中。

    6) Socket:UNIX 套接字,必须存在于给定路径中。

    7) CharDevice:字符设备,必须存在于给定路径中。

    8) BlockDevice:块设备,必须存在于给定路径中。

  2-2、创建hostPath 容器命令和查询创建后状态

#创建
kubectl create -f hostpath-volume.yaml #查询
kubectl get pod

  注:

    在创建使用hostPaht持久化容器的时候,会存在volume.hostpath.path指定的宿主机目录相互节点数据不能同步,

    如果数据不能同步会存在hostpath容器删除重建安装到其它节点上面,原来的数据不能功能想到新的节点上面使用。

    hostPaht不推荐使用

  2-3、挂载/etc/localtime 到容器修改容器里面的时间

vim web-hostpah.yaml

apiVersion: apps/v1
kind: Deployment
metadata:
labels:
app: web-hostpath
name: web-hostpath spec:
replicas: 2
selector:
matchLabels:
app: web-hostpath
template:
metadata:
labels:
app: web-hostpath
spec:
containers:
- image: nginx
name: web-hostpath
ports:
- containerPort: 80
name: hostpath-svc
volumeMounts:
- name: cm-localtime
mountPath: /etc/localtime
readOnly: true
volumes:
- name: cm-localtime
hostPath:
path: /etc/localtime
type: File

  

三、NFS持久化数据存储

  3-1、安装nfs服务(nfs服务只在一台机器安装即可)和每个节点上面安装nfs客户端软件

#找一台机器安装NFS服务端,命令如下
yum install nfs* rpcbind -y #NFS服务端创建共享目录
mkdir /data/share -p #NFS服务器创建共享目录
vim /etc/exports
/data/share/ *(rw,sync,no_subtree_check,no_root_squash) #启动NFS服务端
exportfs -r
systemctl restart nfs rpcbind #k8s所有节点安装nfs客户端
yum install nfs-utils -y #挂载测试
mount -t nfs nfs-serverIP:/data/share /mnt/

  3-2、创建NFS yaml文件 vim nfs-volume.yaml

apiVersion: apps/v1
kind: Deployment
metadata:
labels:
app: nfs-volume
name: nfs-volume
spec:
replicas: 1
selector:
matchLabels:
app: nfs-volume
template:
metadata:
creationTimestamp: null
labels:
app: nfs-volume
spec:
containers:
- image: nginx:1.16.1-alpine
name: nginx
volumeMounts:
- mountPath: /opt #挂载目录路径
name: nfs-volume
volumes:
- name: nfs-volume
nfs: #指向nfs 持久化存储
server: 192.168.3.81 #指向NFS服务器IP地址
path: /data/share #指向nfs服务器挂载目录

  3-2、创建nfs容器和查看nfs容器创建状态

#创建
kubectl create -f nfs-volume.yaml #查询
kubectl get pod

  注:

    NFS持久化存储和NAS持久化存储配置一样只需稍作修改既可以使用NAS持久化存储。

    生产环境不推荐使用NFS作为持久化存储

四、PVS配置NFS或NAS

  说明:关于NFS服务架设看上面3-1示例

  4-1、PV回收策略

    ➢ Retain:保留,该策略允许手动回收资源,当删除PVC时,PV仍然存在,PV被视为已释放,管理员可以手动回收卷。

    ➢ Recycle:回收,如果Volume插件支持,Recycle策略会对卷执行rm -rf清理该PV,并使其可用于下一个新的PVC,

     但是本策略将来会被弃用,目前只有NFS和HostPath支持该策略。

    ➢ Delete:删除,如果Volume插件支持,删除PVC时会同时删除PV,动态卷默认为Delete,目前支持Delete的存储

     后端包括AWS EBS, GCEPD, Azure Disk, or OpenStack Cinder等。

    ➢ 可以通过persistentVolumeReclaimPolicy: Recycle字段配置

  4-2、PV访问策略
    ➢ ReadWriteOnce:可以被单节点以读写模式挂载,命令行中可以被缩写为RWO。
    ➢ ReadOnlyMany:可以被多个节点以只读模式挂载,命令行中可以被缩写为ROX。

    ➢ ReadWriteMany:可以被多个节点以读写模式挂载,命令行中可以被缩写为RWX。

    ➢ ReadWriteOncePod :只允许被单个Pod访问,需要K8s 1.22+以上版本,并且是CSI创建的PV才可使用
 
  4-3、存储分类
    ➢ 文件存储:一些数据可能需要被多个节点使用,比如用户的头像、用户上传的文件等,
     实现方式:NFS、NAS、FTP、CephFS等。
    ➢ 块存储:一些数据只能被一个节点使用,或者是需要将一块裸盘整个挂载使用,比如
     数据库、Redis等,实现方式:Ceph、GlusterFS、公有云。
    ➢ 对象存储:由程序代码直接实现的一种存储方式,云原生应用无状态化常用的实现方式,
     实现方式:一般是符合S3协议的云存储,比如AWS的S3存储、Minio、七牛云等。
 

  4-4、创建NFS PV yaml 文件 vim pv-nfs.yaml

#NFS PV yaml文件

apiVersion: v1
kind: PersistentVolume
metadata:
name: pv-nfs
spec:
capacity:
storage: 5Gi
volumeMode: Filesystem
accessModes:
- ReadWriteOnce
persistentVolumeReclaimPolicy: Recycle
storageClassName: nfs-slow
nfs:
path: /data/share
server: 192.168.3.81 #创建
kubectl create -f pv-nfs.yaml

  注:

    ➢ capacity:容量配置

    ➢ volumeMode:卷的模式,目前支持Filesystem文件系统) 和 Block(块),其中Block类型需要后端存储支持,

     默认为文件系统

    ➢ storage: 5Gi :配置容量大小。容量大小限制需要挂载类型支撑。NFS不支持容量大小限制

    ➢ accessModes:该PV的访问模式

    ➢ storageClassName:PV的类,一个特定类型的PV只能绑定到特定类别的PVC;

    ➢ persistentVolumeReclaimPolicy:回收策略

    ➢ mountOptions:非必须,新版本中已弃用

    ➢ nfs:NFS服务配置,包括以下两个选项
       path:NFS上的共享目录
       server:NFS的IP地址
 
  4-5、PV状态
[root@k8s-master1 pvc]# kubectl get pv
NAME CAPACITY ACCESS MODES RECLAIM POLICY STATUS CLAIM STORAGECLASS REASON AGE
pv-hostpath 5Gi RWO Recycle Available hostpath 8s
pv-nfs 5Gi RWO Recycle Available nfs-slow 12h
    ➢ Available:可用,没有被PVC绑定的空闲资源。
    ➢ Bound:已绑定,已经被PVC绑定。
    ➢ Released:已释放,PVC被删除,但是资源还未被重新使用。
    ➢ Failed:失败,自动回收失败。
 
  4-6、创建hostPath PV yaml 文件
#hostPath PV yaml
vim pv-hostpath.yaml apiVersion: v1
kind: PersistentVolume
metadata:
name: pv-hostpath
labels:
type: local
spec:
capacity:
storage: 5Gi
accessModes:
- ReadWriteOnce
persistentVolumeReclaimPolicy: Recycle
storageClassName: hostpath
hostPath:
path: "/mnt/data" #创建
kubectl create -f pv-hostpath.yaml

  4-7、创建PVC绑定NFS PV yaml文件

apiVersion: v1
kind: PersistentVolumeClaim
metadata:
name: pvc-nfs-claim
spec:
storageClassName: nfs-slow #这里指定是创建PV里面的storageClassName这个名称,进行PV绑定
accessModes:
- ReadWriteOnce #这里访问策略和PV里面的策略保持一致
resources:
requests:
storage: 3Gi #这里要小于或等于PV storage 大小

  注:pvc 没有指定命名空间因为需要跟pod在一个命名空间。如果需要指定命名空间自己在指向命名空间

  4-7-1、创建PVC 绑定NFS和查看创建后状态

#创建
[root@k8s-master1 pvc]# kubectl create -f pvc-nfs-claim.yaml
persistentvolumeclaim/pvc-nfs-claim created #查看pvc绑定状态
[root@k8s-master1 pvc]# kubectl get pvc
NAME STATUS VOLUME CAPACITY ACCESS MODES STORAGECLASS AGE
pvc-nfs-claim Bound pv-nfs 5Gi RWO nfs-slow 8s [root@k8s-master1 pvc]# kubectl get pv pv-nfs
NAME CAPACITY ACCESS MODES RECLAIM POLICY STATUS CLAIM STORAGECLASS REASON AGE
pv-nfs 5Gi RWO Recycle Bound default/pvc-nfs-claim nfs-slow 12h

  注:通过查看绑定状态,status 信息显示了Bound 以绑定状态,查看nfs pv的时候也显示Bound状态。说明NFS pv 已经更PVC绑定成功

  4-8、挂载pvc

    4-8-1、创建挂载yaml文件。把pvc挂载到Deployment nginx上面

apiVersion: apps/v1
kind: Deployment
metadata:
labels:
app: nginx-pvc-nfs
name: nginx-pvc-nfs
spec:
replicas: 2
selector:
matchLabels:
app: nginx-pvc-nfs
template:
metadata:
creationTimestamp: null
labels:
app: nginx-pvc-nfs
spec:
containers:
- image: nginx:1.16.1-alpine
name: nginx
volumeMounts:
- mountPath: /usr/share/nginx/html #挂载目录路径
name: pvc-nfs-storage #这里的名称要跟volumes. -name 名称一致
volumes:
- name: pvc-nfs-storage
persistentVolumeClaim:
claimName: pvc-nfs-claim #这里的pvc-nfs-claim名称是pvc里面命名的名称需要跟pvc里面的名称一致,忘记需要进行查看

  4-8-2、创建绑定和查看创建状态

#创建nginx和pvc绑定命令

[root@k8s-master1 pvc]# kubectl create -f nginx-pvc-nfs.yaml
deployment.apps/nginx-pvc-nfs created #查看状态
[root@k8s-master1 pvc]# kubectl get pod
NAME READY STATUS RESTARTS AGE
emptydir-volume-5c5f5f99cb-9nptl 1/1 Running 2 (98m ago) 21h
hostpath-volume-6896d5b675-mm467 1/1 Running 2 (97m ago) 21h
nfs-volume-76df7d5f7f-r24jm 1/1 Running 2 (97m ago) 21h
nginx-7f56bb9bdc-qgmvb 1/1 Running 4 (97m ago) 47h
nginx-pvc-nfs-69ccf559d6-9g8jm 1/1 Running 0 13s
nginx-pvc-nfs-69ccf559d6-v7kqj 1/1 Running 0 13s
web-5675698566-qlpl7 1/1 Running 4 (97m ago) 47h

  4-8-3、登录容器查看nfs容器直接数据是否互相共享

 4-9、PVC创建和挂载失败的原因
  ➢ PVC一直Pending的原因:
    1)PVC的空间申请大小大于PV的大小
    2)PVC的StorageClassName没有和PV的一致
    3)PVC的accessModes和PV的不一致
  
  ➢ 挂载PVC的Pod一直处于Pending:
    1)PVC没有创建成功/PVC不存在
    2)PVC和Pod不在同一个Namespace

Kubernetes持久化存储的更多相关文章

  1. Kubernetes持久化存储2——探究实验

    目录贴:Kubernetes学习系列 一.简介 本文在“创建PV,创建PVC挂载PV,创建POD挂载PVC”这个环境的基础上,进行各种删除实验,并记录.分析各资源的状态. 二.实验脚本 实验创建了一个 ...

  2. Kubernetes 持久化存储是个难题,解决方案有哪些?\n

    像Kubernetes 这样的容器编排工具正在彻底改变应用程序的开发和部署方式.随着微服务架构的兴起,以及基础架构与应用程序逻辑从开发人员的角度解耦,开发人员越来越关注构建软件和交付价值. Kuber ...

  3. Kubernetes持久化存储1——示例

    目录贴:Kubernetes学习系列 一.简介 存储管理与计算管理是两个不同的问题.Persistent Volume子系统,对存储的供应和使用做了抽象,以API形式提供给管理员和用户使用.要完成这一 ...

  4. Kubernetes 学习(十)Kubernetes 容器持久化存储

    0. 前言 最近在学习张磊老师的 深入剖析Kubernetes 系列课程,最近学到了 Kubernetes 容器持久化存储部分 现对这一部分的相关学习和体会做一下整理,内容参考 深入剖析Kuberne ...

  5. kubernetes学习 做持久化存储

    本节演示如何为 MySQL 数据库提供持久化存储,步骤: 1.创建 PV 和 PVC 2.部署 MySQL 3.向 MySQL 添加数据 4.模拟节点宕机故障,Kubernetes 将 MySQL 自 ...

  6. 使用Ceph集群作为Kubernetes的动态分配持久化存储(转)

    使用Docker快速部署Ceph集群 , 然后使用这个Ceph集群作为Kubernetes的动态分配持久化存储. Kubernetes集群要使用Ceph集群需要在每个Kubernetes节点上安装ce ...

  7. Kubernetes 系列(六):持久化存储 PV与PVC

    在使用容器之后,我们需要考虑的另外一个问题就是持久化存储,怎么保证容器内的数据存储到我们的服务器硬盘上.这样容器在重建后,依然可以使用之前的数据.但是显然存储资源和 CPU 资源以及内存资源有很大不同 ...

  8. Kubernetes 使用 ceph-csi 消费 RBD 作为持久化存储

    原文链接:https://fuckcloudnative.io/posts/kubernetes-storage-using-ceph-rbd/ 本文详细介绍了如何在 Kubernetes 集群中部署 ...

  9. Kubernetes之持久化存储

    转载自 https://blog.csdn.net/dkfajsldfsdfsd/article/details/81319735 ConfigMap.Secret.emptyDir.hostPath ...

  10. Kubernetes的故事之持久化存储(十)

    一.Storage 1.1.Volume 官网网址:https://kubernetes.io/docs/concepts/storage/volumes/ 通过官网说明大致总结下就是这个volume ...

随机推荐

  1. 微服务项目Git仓库自动化脚本

    说明 基于微服务项目,产生的的多项目仓库管理脚本. 目录结构 xxxx Xxx1Api/ Xxx2Api/ git_clone_api.sh git_branch_dev.sh git_pull_al ...

  2. Salesforce LWC学习(四十) datatable的dynamic action的小坑浅谈

    本篇参考:https://developer.salesforce.com/docs/component-library/bundle/lightning-datatable/documentatio ...

  3. CH392/CH395常见问题解决方法指南

    CH395 问题 1: CH395 初始化失败.解答: 1.首先检查"check_exist"命令,正常情况下 CH395 会将该命令的输入值按位取反后输出,若该命令不正常,则说明 ...

  4. Vue+ElementUI+Springboot实现前后端分离的一个demo

    目录 1.前期准备 2.创建一个vue项目 3.vue前端 4.java后端 5.启动 5.1.启动vue项目 5.2.启动后端 6.效果 7.总结 8.参考资料 vue官方文档:介绍 - Vue.j ...

  5. [C#]关于override和new在重写方法时的区别

    规则: 在"运行时"遇到虚方法时,对象会调用虚成员派生得最远的.重写的实现. 如果是用new修饰符实现的方法,它会在基类面前隐藏派生类重新声明的成员,这时候会找到使用new修饰符的 ...

  6. nmap脚本详解

    nmap --script 前言 我们通过nmap script来大幅扩展nmap的功能,nmap具有强大的脚本引擎NSE(Nmap Scripting Engine),它允许用户编写(和共享)简单的 ...

  7. 前端必备基础知识之--------原生JS发送Ajax请求

    原生JS发送Ajax请求 ajax({ type: 'POST', url: 'http://10.110.120.123:2222', // data: param, contentType: 'a ...

  8. MySQL 中一条 sql 的执行过程

    一条 SQL 的执行过程 前言 查询 查询缓存 分析器 优化器 执行器 数据更新 日志模块 redo log (重做日志) binlog (归档日志) undo log (回滚日志) 两阶段提交 为什 ...

  9. Java 进阶P-7.2+P-7.3

    控制反转 很长一段时间里,我对控制反转和依赖注入这两个概念很模糊,闭上眼睛想一想,总有一种眩晕的感觉.但为了成为一名优秀的 Java 工程师,我花了一周的时间,彻底把它们搞清楚了. 紧耦合 在我们编码 ...

  10. [Vue warn]: Invalid prop: type check failed for prop "model". Expected Object, got String with value ""

    问题描述: [Vue warn]: Invalid prop: type check failed for prop "model". Expected Object, got S ...