目录
Always:无论正常退出还是非正常退出都重启
????????deployment的yaml文件只能是Always
????????pod的yaml三种模式都可以
OnFailure:只有状态码非0才会重启。正常退出是不重启的
Never:正常退出和非正常退出都不重启
容器退出了,pod才会重启
pod可以有多个容器
pod可以有多个容器,只要有一个容器退出,整个pod都是重启,pod内的所有都会重启
Never:docker的默认策略,正常退出和非正常退出都不重启
on-Failure:非正常退出时才会重启容器
Always:只要容器退出都是重启
unless-stoped:只要容器退出就会重启,docker守护进程启动时已经停止的容器,不再重启
意思是docker运行时,退出会重启,docker关闭,一并关闭的容器不会重启
单机部署:docker足够了
集群化部署:K8S
#快速生成pod创建yaml
kubectl create deployment nginx --image=nginx1.22 --replicas=3 --dry-run=client -o yaml > /opt/demo1.yaml
#快速生成service的yaml
kubectl expose deployment nginx --port=80 --target-port=80 --type=NodePort --dry-run=client -o yaml > /opt/demo2.yaml
--dry-run=client:只调用api命令,不创建
pending挂起状态:pod已被创建,但是尚未分配到运行他的node节点(1、节点上资源不够? 2、节点上资源不够)
Running运行中:pod已经被分配到了node节点,pod内部的所用容器都已经启动,运行状态正常
competed/successded:容器内部的进程运行完毕正常退出,没有发生错误
failed:pod中的容器非正常退出。发生了错误,需要通过查看详情或者日志定位问题
UNkown:由于某些原因,K8S集群无法获取pod的状态。apiserver出了问题
terminating:终止中,pod正在被删除,里面的容器正在终止。终止过程中,涉及资源回收、垃圾清理、终止过程中需要执行的命令
crashloopbackoff:pod当中的容器退出,kubelet正在重启
imagepullbackoff:正在重试拉取镜像
errimagepull:拉取镜像出错了(1、网速太慢 2、镜像名写错了 3、镜像仓库挂了)
Evicte:pod被驱赶了(node节点的资源不够部署pod,或者是资源不足,kubelet自动选择一个pod驱逐)
InvalidImageName:无法解析镜像名称
ImageInspectError:无法校验镜像
ErrImageNeverPull:策略禁止拉取镜像
RegistryUnavailable: 连接不到镜像中心
CreateContainerConfigError:不能创建kubelet使用的容器配置
CreateContainerError: 创建容器失败
m.internalLifecycle.PreStartContainer 执行hook报错
RunContainerError:启动容器失败
PostStartHookError:执行hook报错
ContainersNotInitialized: 容器没有初始化完毕
ContainersNotReady:容器没有准备完毕
ContainerCreating:容器创建中
PodInitializing:pod初始化中
DockerDaemonNotReady:docker还没有完全启动
NetworkPluginNotReady: 网络插件还没有完全启动
Evicte: pod被驱赶
对pod内的容器使用节点资源的限制:
1、request:pod内容器需要的资源
2、limit:最高能占用系统多少资源
一般在工作中,只做一个limit,需要多少,最多也只能占这么多
两个限制:CPU和内存限制
①、数字加小数点:1、2、0.5、0.3、0.2、0.1
要么是整数数,要么小数点后只能跟一位
1:占用一个cpu
2:占两个cpu
0.5:半个cpu
0.2:只能使用一个cpu的1/5
0.1:最小的单位,只占用1/10
②、m来表示cpu:millicores。1000m、2000m、100m
cpu时间分片原理:通过周期性的轮流分配cpu时间给各个进程。多个进程可以在cpu上交替执行。在K8S中就表示占用cpu的比率
2000m:2个cpu
1000m:1个cpu
500m:半个cpu
100m:最小单位1/10个cpu
2、内存的限制:
单位:大写的开头+小写的i
Ki、Mi、Gi、Ti
apiVersion: apps/v1
kind: Deployment
metadata:
labels:
app: centos
name: centos
spec:
replicas: 1
selector:
matchLabels:
app: centos
strategy:
template:
metadata:
labels:
app: centos
spec:
containers:
- image: centos:7
name: centos
command: ["/bin/bash", "-c", "sleep 3600"]
resources:
requests:
memory: "256Mi"
cpu: "0.5"
limits:
memory: "1Gi"
cpu: "1"
#在创建pod时,一定要给容器做资源限制。可以直接只做limit限制
stress压力测试工具
超过资源限制,进程会被立即杀死
ifNotPresent:默认策略,如果本地镜像有,就不在拉取,本地没有就去镜像仓库拉取
Always:无论镜像是否存在,创建时(包括重启时)都会重新拉取镜像
Never:仅仅使用本地镜像
如果没有特殊需求,默认即可,不用配置
都还是本地部署,用Never即可
如果涉及到外部部署,默认策略即可(事前要把docker的镜像导入到目标主机)
Always:一般不用
是K8S对容器执行的定期检查诊断
探针都是对容器进行操作
所有的探针策略伴随整个pod的生命周期。除了启动探针。
探测容器是否正常运行,如果发现探测失败,会杀掉容器,容器会根据重启策略来决定是否重启。不是杀掉pod,只是对容器操作。特点就是杀死容器,重启
探测容器是否进入ready状态,并且做好接收请求的准备。
探测失败 进入READY 0/1状态,无法接受请求,没有进入ready状态。service会把这个资源对象的端点endpoints从当中剔除,service也不会把请求转发到这个pod
只是在容器的启动后开始检测,容器内的应用是否启动成功。在启动探测成功之前,所有的其他探针都会处于禁用状态,一旦启动探针结束,后续的操作不再受启动探针的影响
在一个容器中可以有多个探针,也可以只有一个探针
以上三种探针都能用下面的检查方式
在容器内部执行命令,如果命令的返回码是0,表示成功
适用于需要在容器内自定义命令来检查容器的健康状态的情况
对指定ip+端口的容器发送一个httpget的请求。响应状态码在200-400
内都是成功 200<= X <400 之间都算成功
适用于检查容器能否响应http的请求,web容器(nginx、Tomcat等)
检查端口,对指定端口上的容器的IP地址进行tcp检查(三次握手),端口打开,认为探测成功。否则都是失败
用于检查特定容器的端口监听状态
类似于telnet 192.168.233.30 80 检查80端口是否正常
诊断结果:
1、成功:容器通过了,正常运行
2、失败:失败了只有存活探针会重启
3、未知:诊断失败
apiVersion: apps/v1
kind: Deployment
metadata:
labels:
app: centos
name: centos
spec:
replicas: 1
selector:
matchLabels:
app: centos
strategy:
template:
metadata:
labels:
app: centos
spec:
containers:
- image: centos:7
name: centos
command: ["/bin/bash", "-c", "touch /opt/123.txt ; sleep 3600"]
livenessProbe:
exec:
command: ["/usr/bin/test" , "-e", "/opt/123.txt"]
#检测/opt/123.txt文件是否存在,存在则检测成功
initialDelaySeconds: 3
#表示容器启动之后多少秒来进行探测,时间不要设置的太短,否则容器没启动就开始探测,无效探测
periodSeconds: 2
#表示探针探测的间隔时间。每隔多少秒进行一次检查。范围是看应用的延迟敏感度。非常重要的核心组件,间>
隔设置小一点
failureThreshold: 2
#如果探测失败,失败几次之后,把容器标记为不健康。
successThreshold: 1
#只要成功一次就标记为就绪、健康、ready。这里的值只能是1,所以这项可以不加
timeoutSeconds: 1
#表示每次探测的超时时间,这个时间要比间隔时间小,意思是在1秒内要完成探测
删除文件,模拟探针检测失效
kubectl exec -it centos-797bc57596-dcvzh -- rm -rf /opt/123.txt
这里重新拉取容器之后,因为command,/opt/123.txt会自动生成,所以拉取一次,容器又Running了
apiVersion: v1
kind: Pod
metadata:
name: nginx
spec:
containers:
- image: nginx:1.22
name: nginx
livenessProbe:
httpGet:
scheme: HTTP
port: 80
initialDelaySeconds: 4
periodSeconds: 2
用Tomcat测试:
apiVersion: v1
kind: Pod
metadata:
name: tomcat
spec:
containers:
- image: tomcat:8.0.52
name: tomcat
livenessProbe:
httpGet:
scheme: HTTP
port: 8080
path: /index.html
initialDelaySeconds: 4
periodSeconds: 2
#相当于访问http://ip/index.html
将path改成 index.jsp
kind: Pod
metadata:
name: tcp-tomcat
spec:
containers:
- image: tomcat:8.0.52
name: tcp-tomcat
livenessProbe:
tcpSocket:
port: 8080
initialDelaySeconds: 4
periodSeconds: 2
检测端口8080,端口打开表示检测成功:
将端口改成8081: