k8s的二进制部署
发布时间:2023年12月26日
k8smaster1 | 20.0.0.71 kube-apiserver,kube-controller-manager,kube-scheduler,etcd |
k8slave | 20.0.0.72 kube-apiserver,kube-controller-manager,kube-scheduler |
node01 | 20.0.0.73 kubelet,kube-proxy,etcd |
node02 | 20.0.0.74 kubelet,kube-proxy,etcd |
负载均衡:nginx+keepalived |
master | 20.0.0.11 |
backup | 20.0.0.12 |
etcd集群 | 20.0.0.71(master1) |
20.0.0.73(node1) |
20.0.0.73(node2) |
1、统一配置master和node节点
(1)系统初始化配置
iptables -F:清除默认的 iptables 规则链
iptables -t nat -F:清除 "nat" 表中的所有规则
iptables -t mangle -F:清除 "mangle" 表中的所有规则
iptables -X:删除用户自定义的链
(2)关闭交换分区,提升性能(k8s在设计时,为了提升性能,默认是不使用swap交换分区,kubelet在初始化时,会检测swap是否关闭)
(3)修改主机名
(4)配置主机映射(/etc/hosts)
(5)编辑配置文件(/etc/sysctl.d/k8s.conf),调整内核参数
sysctl --system
(6)时间同步(所有节点)
yum install ntpdate -y
ntpdate ntp.aliyun.com
2、安装docker
yum install -y yum-utils device-mapper-persistent-data lvm2
yum-config-manager --add-repo https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
yum install -y docker-ce docker-ce-cli containerd.io
systemctl start docker.service
systemctl enable docker.service
3、部署组件etcd
①存储k8s的集群信息和用户配置组件etcd ②etcd是一个高可用,分布式的键值存储数据库,采用raft算法保证节点的信息一致性,etcd是go语言写的 ③etcd一般都是集群部署,etcd也有选举leader的机制,至少有3台,或者奇数台 |
etcd的端口 | 2379:api接口,对外为客户端提供通信 |
2380:内部服务的通信端口 |
k8s的内部通信依靠证书认证,密钥认证:证书的签发环境 |
cfssl | 证书签发的命令工具 |
cfssl-certinfo | 查看证书信息的工具 |
cfssljson | 把证书的格式化转化成json格式,编程文件的承载式证书 |
(1)主节点操作:准备cfssl证书生成工具
chmod +x /usr/local/bin/cfssl*
(2)生成Etcd证书
①修改配置文件:vim etcd-cert.sh
②配置文件etcd.sh:创建etcd的配置文件和启动脚本
③赋权:chmod 777 etcd-cert.sh etcd.sh
(3)创建用于生成CA证书、etcd 服务器证书以及私钥的目录
①mkdir /opt/k8s/etcd-cert
②mv etcd-cert.sh etcd-cert/
③cd /opt/k8s/etcd-cert/
⑤生成CA证书、etcd 服务器证书以及私钥:./etcd-cert.sh
ca-config.json | 证书颁发机构的配置文件,定义了证书生成的策略,默认的过期时间和模版 |
ca-csr.json | 签名的请求文件,包括一些组织信息和加密方式 |
ca.pem | 根证书文件,用于给其他组件签发证书 |
server.csr | etcd的服务器签发证书的请求文件 |
server-key.pem | etcd服务器的私钥文件 |
ca.csr | 根证书签发请求文件 |
ca-key.pem | 根证书的私钥文件 |
etcd-cert.sh | |
server-csr.json | 用于生成etcd的服务器证书和私钥签名文件 |
server.pem | etcd服务器的证书文件,用于加密和认证etcd节点之间的通信 |
(4)上传etcd-v3.4.9-linux-amd64.tar.gz到/opt/k8s目录中,启动etcd服务
①创建用于存放etcd配置文件,命令文件,证书的目录:mkdir -p /opt/etcd/{cfg,bin,ssl}
mkdir -p /opt/etcd/{cfg,bin,ssl}
mv etcd etcdctl /opt/etcd/bin/
cp /opt/k8s/etcd-cert/*.pem /opt/etcd/ssl/
②生成配置文件
./etcd.sh etcd01 20.0.0.71?etcd02=https://20.0.0.73:2380,etcd03=https://20.0.0.74:2380
③把etcd相关证书文件、命令文件和服务管理文件全部拷贝到另外两个etcd集群节点
scp -r /opt/etcd/ root@20.0.0.73:/opt/
scp -r /opt/etcd/ root@20.0.0.74:/opt/
scp /usr/lib/systemd/system/etcd.service root@20.0.0.73:/usr/lib/systemd/system/
scp /usr/lib/systemd/system/etcd.service root@20.0.0.74:/usr/lib/systemd/system/
④修改node节点上的配置文件
⑤启动etcd服务(依次起master到node节点,查看etcd的健康状态(谁先起谁就是leader)
systemctl start etcd
systemctl enable etcd
systemctl status etcd
ETCDCTL_API=3 /opt/etcd/bin/etcdctl --cacert=/opt/etcd/ssl/ca.pem --cert=/opt/etcd/ssl/server.pem --key=/opt/etcd/ssl/server-key.pem --endpoints="https://20.0.0.71:2379,https://20.0.0.73:2379,https://20.0.0.74:2379" endpoint health --write-out=table
ETCDCTL_API=3 /opt/etcd/bin/etcdctl --cacert=/opt/etcd/ssl/ca.pem --cert=/opt/etcd/ssl/server.pem --key=/opt/etcd/ssl/server-key.pem --endpoints="https://20.0.0.71:2379,https://20.0.0.73:2379,https://20.0.0.74:2379"?--write-out=table member list
4、部署Master组件
(1)上传master.zip和k8s-cert.sh到/opt/k8s目录中,解压master.zip压缩包
unzip master.zip
chmod +x *.sh
(2)修改配置文件
①vim k8s-cert.sh
②vim controller-manager.sh
③vim scheduler.sh
④vim admin.sh
Context | 上下文 |
| 定义连接到哪个k8s集群,以及使用哪个用户的身份进行操作,上下文包含集群、用户、可选命名空间的信息。目的:在k8s的集群环境中进行切换 |
(3)创建kubernetes工作目录:
mkdir -p /opt/kubernetes/{bin,cfg,ssl,logs}
(4)创建用于生成CA证书、相关组件的证书和私钥的目录
①mkdir /opt/k8s/k8s-cert
②mv /opt/k8s/k8s-cert.sh /opt/k8s/k8s-cert
③cd /opt/k8s/k8s-cert/
④生成CA证书、相关组件的证书和私钥:./k8s-cert.sh
(5)复制CA证书、apiserver相关证书和私钥到 kubernetes工作目录的 ssl 子目录中
cp ca*pem apiserver*pem /opt/kubernetes/ssl/
(6)上传kubernetes-server-linux-amd64.tar.gz到/opt/k8s/目录中,解压kubernetes 压缩包
cd /opt/k8s/
tar zxvf kubernetes-server-linux-amd64.tar.gz
(7)复制master组件的关键命令文件到 kubernetes工作目录的bin子目录中
cd /opt/k8s/kubernetes/server/bin
cp kube-apiserver kubectl kube-controller-manager kube-scheduler /opt/kubernetes/bin/
ln -s /opt/kubernetes/bin/* /usr/local/bin/
(8)创建 bootstrap token 认证文件,apiserver 启动时会调用,然后就相当于在集群内创建了一个这个用户,接下来就可以用 RBAC 进行授权
vim token.sh
chmod 777?token.sh
./token.sh
cat /opt/kubernetes/cfg/token.csv
(9)二进制文件、token、证书都准备好后,开启apiserver服务
./apiserver.sh 20.0.0.71 https://20.0.0.71:2379,https://20.0.0.73:2379,https://20.0.0.74:2379
(10)启动服务
①启动scheduler服务:./scheduler.sh
②启动controller-manager服务:./controller-manager.sh
③生成kubectl连接集群的kubeconfig文件:./admin.sh
④查看集群的状态:通过kubectl工具查看当前集群组件状态:kubectl get cs
⑤查看集群的版本:kubectl version
kubectl api-resources:调用api所有接口的信息
主节点配置完成
5、部署node节点
(1)创建kubernetes工作目录:mkdir -p /opt/kubernetes/{bin,cfg,ssl,logs}
(2)上传node.zip到/opt目录中,解压node.zip压缩包,获得kubelet.sh、proxy.sh
unzip node.zip
chmod +x kubelet.sh proxy.sh
(3)配置主节点master
①把kubelet、kube-proxy拷贝到node节点
cd /opt/k8s/kubernetes/server/bin
scp kubelet kube-proxy root@20.0.0.73:/opt/kubernetes/bin/
scp kubelet kube-proxy root@20.0.0.74:/opt/kubernetes/bin/
②上传kubeconfig.sh文件到/opt/k8s/kubeconfig目录中,生成kubelet初次加入集群引导kubeconfig文件和kube-proxy.kubeconfig文件
mkdir /opt/k8s/kubeconfig
cd /opt/k8s/kubeconfig
chmod +x kubeconfig.sh
./kubeconfig.sh 20.0.0.71 /opt/k8s/k8s-cert/
③把配置文件bootstrap.kubeconfig、kube-proxy.kubeconfig拷贝到node节点
scp bootstrap.kubeconfig kube-proxy.kubeconfig root@20.0.0.73:/opt/kubernetes/cfg/
scp bootstrap.kubeconfig kube-proxy.kubeconfig root@20.0.0.74:/opt/kubernetes/cfg/
④RBAC授权,生成和赋权用户kubelet-bootstrap发起node节点的请求认证,通过CSR加密认证实现node节点加入到集群当中,kubelet获取master的验证信息和获取api-server接口的通信认证
kubectl create clusterrolebinding kubelet-bootstrap --clusterrole=system:node-bootstrapper --user=kubelet-bootstrap
node节点2同步以下操作:
(4)配置node节点1,启动 kubelet 服务
cd /opt/
./kubelet.sh 20.0.0.73
./kubelet.sh 20.0.0.74
ps aux | grep kubelet
(5)在master节点上操作,通过CSR请求
①检查到 node1节点的kubelet发起的CSR请求,Pending表示等待集群给该节点签发证书
kubectl get csr
②通过CSR请求
kubectl certificate approve node-csr-zWucFS9bvLxR36tCtTKOkmaKIvk6aAraWUGJbBL21Rk
③查看节点,由于网络插件还没有部署,节点会没有准备就绪 NotReady
kubectl get node
(6)在node1节点上操作(启动proxy服务)
①加载ip_vs模块
for i in $(ls /usr/lib/modules/$(uname -r)/kernel/net/netfilter/ipvs|grep -o "^[^.]*");do echo $i; /sbin/modinfo -F filename $i >/dev/null 2>&1 && /sbin/modprobe $i;done
②启动proxy服务
cd /opt/
./proxy.sh 20.0.0.73
./proxy.sh 20.0.0.74
ps aux | grep proxy
文章来源:https://blog.csdn.net/weixin_48145965/article/details/135223414
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若内容造成侵权/违法违规/事实不符,请联系我的编程经验分享网邮箱:chenni525@qq.com进行投诉反馈,一经查实,立即删除!