k8s之存储卷

发布时间:2024年01月23日

k8s之存储卷?

存储卷-----数据卷

容器内的目录和宿主机的目录进行挂载

容器在系统上的生命周期是短暂的,delete,k8s用控制创建的pod,delete相当于重启,容器的状态也会恢复到初始状态

一旦回到初始状态,所有的后天编辑的文件都会消失

容器和节点之间创建一个可以持久保存容器内文件的存储卷,即使容器被销毁,删除,重启,节点上的存储卷的数据依然存在,后续可以继续使用。可以继续将容器内目录和宿主机挂载,保存的数据继续使用

1、emptyDir:

容器内部共享存储卷,k8s系统当中,是一个pod当中的多个容器共享一个存储卷目录

emptyDir卷可以使pod当中容器在这个存储卷上读取和写入

emptyDir是不能挂载到节点的,随着pod的生命周期结束,emptyDir也会结束,数据也不会保留

容器内部共享,lnmp

apiVersion: apps/v1

kind: Deployment

metadata:

??labels:

????app: nginx

??name: nginx

spec:

??replicas: 3

??selector:

????matchLabels:

??????app: nginx

??template:

????metadata:

??????labels:

????????app: nginx

????spec:

??????containers:

??????- image: nginx:1.22

????????name: nginx1

????????volumeMounts:

????????- name: html

??????????mountPath: /usr/share/nginx/html

#第一个name,存储卷的名称,可以自定义,mountPath是定义容器内的挂载点,和节点,或者其他容器的共享>目录

??????- image: nginx:1.22

????????name: nginx2

????????volumeMounts:

????????- name: html

??????????mountPath: /data

#引用上一个挂载的名称,表示我将和/usr/share/nginx/html这个目录挂载,由data目录和他挂载

????????command: ["/bin/bash", "-c", "while true; do echo $(date) >> /data/index.html; sleep 2; done"]

??????volumes:

??????- name: html

????????emptyDir: {}

kubectl apply -f pod-emptydir.yaml

kubectl exec -it nginx-dir-86ccb4cd78-pttv4 -c nginx1 bash

kubectl exec -it nginx-dir-86ccb4cd78-pttv4 -c nginx2 bash

kubectl get pods -o wide

NAME ??????????READY ??STATUS ???RESTARTS ??AGE ??IP ???????????NODE ????NOMINATED NODE ??READINESS GATES

pod-emptydir ??2/2 ????Running ??0 ?????????36s ??10.244.2.19 ??node02 ??<none> ??????????<none>

//在上面定义了2个容器,其中一个容器是输入日期到index.html中,

然后验证访问nginx的html是否可以获取日期。以验证两个容器之间挂载的emptyDir实现共享。

curl 10.244.2.19

Thu May 27 18:17:11 UTC 2021

Thu May 27 18:17:13 UTC 2021

Thu May 27 18:17:15 UTC 2021

Thu May 27 18:17:17 UTC 2021

Thu May 27 18:17:19 UTC 2021

Thu May 27 18:17:21 UTC 2021

Thu May 27 18:17:23 UTC 2021

题:

污点设置为NoExecute,节点上的pod会被驱逐,那么文件数据在不在?

答:1、在的,pod被驱逐,并不是node节点被销毁,所有数据还保留在节点上

2、pod被驱逐(基于控制器创建的)会在其他节点重新部署,又会在其他节点生成一个新的存储卷,数据依然可以持久化

emptyDir的共享数据,会丢失

2、hostPath:

将容器内部的挂载点和节点上的目录进行挂载,hostPath可以实现数据的持久化。node节点如果被销毁,那么数据也会丢失

apiVersion: apps/v1

kind: Deployment

metadata:

??labels:

????app: nginx

??name: nginx

spec:

??replicas: 3

??selector:

????matchLabels:

??????app: nginx

??template:

????metadata:

??????labels:

????????app: nginx

????spec:

??????containers:

??????- image: nginx:1.22

????????name: nginx1

????????volumeMounts:

????????- name: html

??????????mountPath: /usr/share/nginx/html

#第一个name,存储卷的名称,可以自定义,mountPath是定义容器内的挂载点,和节点,或

者其他容器的共享目录

??????- image: nginx:1.22

????????name: nginx2

????????volumeMounts:

????????- name: html

??????????mountPath: /data

#引用上一个挂载的名称,表示我将和/usr/share/nginx/html这个目录挂载,由data目录>和他挂载

????????command: ["/bin/bash", "-c", "while true; do echo $(date) >> /data/index.html; sleep 2; done"]

??????volumes:

??????- name: html

????????hostPath:

??????????path: /opt/test

??????????type: DirectoryOrCreate

kubectl apply -f pod-hostpath.yaml

//访问测试

kubectl get pods -o wide

NAME ??????????READY ??STATUS ???RESTARTS ??AGE ??IP ???????????NODE ????NOMINATED NODE ??READINESS GATES

pod-hostpath ??2/2 ????Running ??0 ?????????37s ??10.244.2.35 ??node02 ??<none> ??????????<none>

curl 10.244.2.35

node02.kgc.com

//删除pod,再重建,验证是否依旧可以访问原来的内容

kubectl delete -f test2.yaml ?

kubectl apply -f test2.yaml ?

kubectl get pods -o wide

NAME ??????????READY ??STATUS ???RESTARTS ??AGE ??IP ???????????NODE ????NOMINATED NODE ??READINESS GATES

pod-hostpath ??2/2 ????Running ??0 ?????????36s ??10.244.2.37 ??node02 ??<none> ??????????<none>

curl ?10.244.2.37

node02.kgc.com

kubectl logs nginx-74769444c-d9g25 -c nginx1:查看不同容器的日志

kubectl exec -it nginx-74769444c-d9g25 -c nginx1 bash:进入指定容器

3NFS共享存储

所有的pod内的目录都和节点上的nfs共享目录形成数据卷,所有的数据文件都保存在共享目录当中。好处就是集中,方便管理

//在94stor01节点上安装nfs,并配置nfs服务

mkdir /data/volumes -p

chmod 777 /data/volumes

vim /etc/exports

/data/volumes 192.168.233.0/24(rw,no_root_squash)

systemctl start rpcbind

systemctl start nfs

showmount -e

Export list for stor01:

/data/volumes 192.168.233.0/24


//master节点操作

apiVersion: apps/v1

kind: Deployment

metadata:

??name: nginx-dir1

??namespace: default

spec:

??replicas: 3

??selector:

????matchLabels:

??????app: nginx2

??????tier: frontend1

??template:

????metadata:

??????labels:

????????app: nginx2

????????tier: frontend1

????spec:

??????containers:

??????- name: nginx1

????????image: nginx:1.22

????????imagePullPolicy: IfNotPresent

????????volumeMounts:

????????- name: html

??????????mountPath: /usr/share/nginx/html/

??????- name: nginx2

????????image: nginx:1.22

????????imagePullPolicy: IfNotPresent

????????volumeMounts:

????????- name: html

??????????mountPath: /data/

??????????readOnly: false

????????command: ['/bin/sh', '-c', 'while true; do echo $(date) >> /data/index.html; sleep 2; done']

??????volumes:

??????- name: html

????????nfs:

??????????path: /data/volumes

??????????server: k8s4

#也可以是用ip地址

注意:最后一行server可以是共享节点的ip地址,也可以是主机名,如果最后一行server用主机名的话,那就要做映射/etc/hosts

pvc和pv

pv:全称Persistent Volume(yaml文件里要写全称)持久化存储卷,描述和定义一个存储卷,pv是由我们运维人员来定的

pvc:全称Persistent Volume Claimyaml(文件里要写全称)持久化存储的请求。pvc实际上是用来描述或者声明我希望使用什么样的pv来进行存储

pvc-pv是一一对应的关系(描述,存储(大小))

pvc-------pv-------NFS

pvc和pv都是虚拟化的概念,是k8s的抽象的虚拟的存储资源

pvc和pv之间静态请求,一旦成百个pvc怎么办,所以还有动态pvc

pv是集群当中的存储资源,pvc请求存储资源,也是对存储资源的一个检索(检查索引),选择一个最合适的pv来存储资源

pv和pvc之间是有生命周期管理:

1、Provisioning(配置)-------pvc请求request-------检索(找一个合适的pv)---------pvc和pv(binding绑定)--------使用-------pod被删除---------pv(releasing释放)--------recycling回收

配置:静态、动态

绑定:就是把pv分配给pvc

使用:就是pod通过pvc使用存储资源

releasing释放:pod解除和volume挂载卷的关系,删除pvc

回收:保留pv,以供下一个pvc使用

pod内的挂载点声明一个请求,就是pvc请求,pvc会找一个最合适的pv来作为pod存储卷,pv和共享目录在一一映射,最终由nfs来提供最终的共享存储空间

pv的状态:

Available:可用,而且没有被任何pvc绑定

Bound:绑定,pv已经绑定到了pvc绑定即使用

released:释放,pvc已经被删除了,但是pv的存储资源还没有被集群回收

Failed:表示pv的资源回收失败,而且pv为不可用状态

ReadWriteOnce简写是RWO,配置文件里是全称,表示存储pv是可读可写,但是只能被单个pod挂载

ReadOnlyMany简写是ROX,存储的pv可以以只读的方式被多个pod挂载

ReadWriteMany简写是RWX,存储可以支持读写的方式被多个pod共享

nfs:可以支持三种读写和挂载方式

hostPath:支持ReadWriteOnce方式

SCSI

ISCSI不支持ReadWriteMany

iscsiadm -m session -P 3

iscsiadm:查看服务器是否有iscsi设备

-m session:指定操作的会话模块,管理iscsi的会话

-P 3:显示详细信息的级别,级别就是3

集群回收pv资源的方式:

1、Retain:保留,pod和挂载点的数据不会被删除

2、Recycle:回收,pv上的数据被删除,挂载点的数据也被删除

3、Delete:淡出,解绑时,自动删除pv上的数据(本地硬盘不能使用,AWS,EBS,GCE)支持动态卷的可以使用,pv也不再可用(云平台自己处理)

补充:当pod运行之后,通过pvc请求到了pv,除非pod被销毁,否则无法删除pvc

#创建共享目录

mkdir -p /data/volumes/v{1..5}

给volumes赋权

#进行exports共项目录的编辑

vim /etc/exports

/data/vulumes/v1 192.168.73.0/24(rw,sync,no_root_squash)

/data/vulumes/v2 192.168.73.0/24(rw,sync,no_root_squash)

/data/vulumes/v3 192.168.73.0/24(rw,sync,no_root_squash)

/data/vulumes/v4 192.168.73.0/24(rw,sync,no_root_squash)

/data/vulumes/v5 192.168.73.0/24(rw,sync,no_root_squash)

systemctl start rpcbind

systemctl start nfs

showmount -e

#发布共享目录

exportfs -avf

然后去主节点showmount -e 192.168.233.34

在主机编写pv资源创建yaml文件

apiVersion: v1

kind: PersistentVolume

metadata:

??name: pv001

??labels:

????name: pv001

spec:

??nfs:

????path: /data/v1

????server: 192.168.233.94

??accessModes: ["ReadWriteMany","ReadWriteOnce"]

??capacity:

????storage: 1Gi

---

apiVersion: v1

kind: PersistentVolume

metadata:

??name: pv00

??labels:

????name: pv002

spec:

??nfs:

????path: /data/v2

????server: 192.168.233.94

??accessModes: ["ReadWriteOnce"]

??capacity:

????storage: 2Gi

---

apiVersion: v1

kind: PersistentVolume

metadata:

??name: pv003

??labels:

????name: pv003

spec:

??nfs:

????path: /data/v3

????server: 192.168.233.94

??accessModes: ["ReadWriteMany","ReadWriteOnce"]

??capacity:

????storage: 2Gi

---

apiVersion: v1

kind: PersistentVolume

metadata:

??name: pv004

??labels:

????name: pv004

spec:

??nfs:

????path: /data/v4

server:?192.168.233.94

accessModes: ["ReadWriteMany","ReadWriteOnce"]

??capacity:

????storage: 4Gi

---

apiVersion: v1

kind: PersistentVolume

metadata:

??name: pv005

??labels:

????name: pv005

spec:

??nfs:

????path: /data/v5

????server: 192.168.233.94

??accessModes: ["ReadWriteMany","ReadWriteOnce","ReadOnlyMany"]

??capacity:

????storage: 5Gi

在主节点上再创建pvc资源,并且设置匹配绑定相应的pv

apiVersion: v1

kind: PersistentVolumeClaim

metadata:

??name: mypvc

spec:

??accessModes: ["ReadWriteMany"]

#pvc期望请求的pv的读写挂载类型是什么

??resources:

????requests:

??????storage: 2Gi

#pvc期望请求pv的存储大小是2G,期望的pv类型:readwritemany,大小是2G

---

apiVersion: apps/v1

kind: Deployment

metadata:

??labels:

????app: nginx

??name: nginx

spec:

??replicas: 3

??selector:

????matchLabels:

??????app: nginx

??template:

????metadata:

??????labels:

????????app: nginx

????spec:

??????containers:

??????- image: nginx:1.22

????????name: nginx1

????????volumeMounts:

????????- name: html

??????????mountPath: /usr/share/nginx/html

??????volumes:

??????- name: html

????????persistentVolumeClaim:

??????????claimName: mypvc

进到94节点v3里面echo一个123到index.html

然后在主节点操作:

如果想再次被请求,就进这个命令,然后删除到nfs

总结:

k8s当中存储卷的模式:

emptyDir:容器内存储卷,随着pod被销毁,也会被销毁,数据不保留

hostPath:节点目录的存储卷,可以实现持久化存储。数据在每个节点上都有,不方便集中管理

nfs:共享目录存储卷,可以实现持久化。数据集中在一个目录。方便管理

pv和pvc:

pvc请求--------pv的存储资源---------硬盘空间(NFS)

nfs支持pvc的索引挂载方式和读写模式

hostPath仅支持ReadWriteOnce方式

pvc是以检索的方式找到匹配的pv资源

检索挂载方式和读写模式

检索pv能提供的存储资源的大小

谁合适选谁

保留:默认可以不写

回收:自动回收,节点上的数据会被删除

删除:pv会变成failed模式,不可用,数据也会被删除

文章来源:https://blog.csdn.net/wyh20030130/article/details/135767216
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。