园区网互联及网站建设,昭通网站建设兼职,搜索引擎排名优化的关键是,百家号seo怎么做目录
一、部署步骤
1、实验环境
2、环境准备
3、所有节点安装Docker
4、 所有节点配置K8S源
5、所有节点安装kubeadm#xff0c;kubelet和kubectl
6、部署 kubernetes Master 节点
7、token制作
8、k8s-node节点加入master节点
9、 master节点安装部署pod网络插件kubelet和kubectl
6、部署 kubernetes Master 节点
7、token制作
8、k8s-node节点加入master节点
9、 master节点安装部署pod网络插件flannel
10、给node节点添加标签
11、master检查
12、查询服务是否正常
13、 测试 k8s 集群在集群中创建一个 pod验证是否能正常运行 一、部署步骤
1、实验环境
服务器类型IP地址master192.168.80.5node01192.168.80.8node02192.168.80.9
2、环境准备
所有节点关闭防火墙规则关闭selinux关闭swap交换
#所有节点关闭防火墙规则关闭selinux关闭swap交换
systemctl stop firewalld
systemctl disable firewalld
setenforce 0
iptables -F iptables -t nat -F iptables -t mangle -F iptables -X
swapoff -a #交换分区必须要关闭
sed -ri s/.*swap.*/#/ /etc/fstab #永久关闭swap分区符号在sed命令中代表上次匹配的结果
修改主机名并写入三台服务器的host中
cat /etc/hosts EOF
192.168.80.5 master
192.168.80.8 node01
192.168.80.9 node02
EOF
调整内核参数将桥接的 IPV4 流量传递到 iptables 链
#调整内核参数cat /etc/sysctl.d/kubernetes.conf EOF
net.bridge.bridge-nf-call-ip6tables1
net.bridge.bridge-nf-call-iptables1
net.ipv6.conf.all.disable_ipv61
net.ipv4.ip_forward1
EOF#加载参数
sysctl --system 3、所有节点安装Docker
yum install -y yum-utils device-mapper-persistent-data lvm2
yum-config-manager --add-repo https://mirrors.aliyun.com/docker-ce/linux/centos/docker-ce.repo
yum install -y docker-ce docker-ce-cli containerd.iomkdir /etc/docker
cat /etc/docker/daemon.json EOF
{exec-opts: [native.cgroupdriversystemd],log-driver: json-file,log-opts: {max-size: 100m}
}
EOFsystemctl daemon-reload
systemctl restart docker.service
systemctl enable docker.servicedocker info | grep Cgroup Driver 4、 所有节点配置K8S源
#定义kubernetes源
cat /etc/yum.repos.d/kubernetes.repo EOF
[kubernetes]
nameKubernetes
baseurlhttps://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled1
gpgcheck0
repo_gpgcheck0
gpgkeyhttps://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF
5、所有节点安装kubeadmkubelet和kubectl
yum install -y kubelet-1.21.3 kubeadm-1.21.3 kubectl-1.21.3#开机自启kubelet
systemctl enable kubelet.service
systemctl start kubelet
#K8S通过kubeadm安装出来以后都是以Pod方式存在即底层是以容器方式运行所以kubelet必须设置开机自启
6、部署 kubernetes Master 节点
master 节点上执行
kubeadm init \
--apiserver-advertise-address192.168.80.5 \
--image-repository registry.aliyuncs.com/google_containers \
--kubernetes-version v1.21.3 \
--service-cidr10.96.0.0/12 \
--pod-network-cidr10.244.0.0/16可选参数
--apiserver-advertise-addressapiserver通告给其他组件的IP地址一般应该为Master节点的用于集群内部通信的IP地址0.0.0.0表示节点上所有可用地址
--apiserver-bind-portapiserver的监听端口默认是6443
--cert-dir通讯的ssl证书文件默认/etc/kubernetes/pki
--control-plane-endpoint控制台平面的共享终端可以是负载均衡的ip地址或者dns域名高可用集群时需要添加
--image-repository拉取镜像的镜像仓库默认是k8s.gcr.io
--kubernetes-version指定kubernetes版本
--pod-network-cidrpod资源的网段需与pod网络插件的值设置一致。Flannel网络插件的默认为10.244.0.0/16Calico插件的默认值为192.168.0.0/16
--service-cidrservice资源的网段
--service-dns-domainservice全域名的后缀默认是cluster.local 执行以下命令可使用kubectl管理工具
mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config 7、token制作
kubeadm token create --print-join-command 8、k8s-node节点加入master节点
两个node执行这里只举例一个
获取前面创建好的token令牌
kubeadm join 192.168.80.5:6443 --token u8bjwg.1jcy6irvwsaz8ths --discovery-token-ca-cert-hash sha256:8c80cde75c0e86d7bcd61fc61559fdb5f9cde304cad2095ca658f8409476963f 节点显示 NotReady 状态需要安装网络插件
9、 master节点安装部署pod网络插件flannel
所有节点上传flannel镜像 flannel.tar 到 /opt 目录master节点上传 kube-flannel.yml 文件
wget https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml 在 master 节点创建 flannel 资源
kubectl apply -f kube-flannel.yml 如果kube-flannel没有成功运行解决办法
#修改flannel插件文件这个版本比较低高版本k8s尽量选择一些高一些的版本flannel
sed -i -r s#quay.io/coreos/flannel:.*-amd64#lizhenliang/flannel:v0.12.0-amd64#g kube-flannel.yamlkubectl apply -f kube-flannel.yaml
kubectl get pods -n kube-system
kubectl get node #部署好网络插件node 准备就绪
10、给node节点添加标签
kubectl label node node01 node-role.kubernetes.io/nodenode1
kubectl label node node02 node-role.kubernetes.io/nodenode2
#获取节点信息
kubectl get nodes
11、master检查
#查询master是否正常
kubectl get cs
#若为unhealthy
vim /etc/kubernetes/manifests/kube-scheduler.yaml
vim /etc/kubernetes/manifests/kube-controller-manager.yaml
#将- --port0注释掉 12、查询服务是否正常
监测K8s集群是否正常后再运行服务部署
#查询所有pod是否正常运行
kubectl get pods -A
#查询master是否正常
kubectl get cs
#查询node节点是否ready
kubectl get nodes 13、 测试 k8s 集群在集群中创建一个 pod验证是否能正常运行
#部署服务
kubectl create deployment nginx --imagenginx:1.14
#暴露端口
kubectl expose deployment nginx --port80 --typeNodePort
kubectl get pods
kubectl get svc