网站建设方案书 模版,落实网站建设管理,张家界公司网站建设,设计营销型网站书接上文#xff0c;我们继续部署剩余的插件
一、K8s的CNI网络插件模式
2.1 k8s的三种网络模式
K8S 中 Pod 网络通信#xff1a;
#xff08;1#xff09;Pod 内容器与容器之间的通信
在同一个 Pod 内的容器#xff08;Pod 内的容器是不会跨宿主机的#xff09;共享…书接上文我们继续部署剩余的插件
一、K8s的CNI网络插件模式
2.1 k8s的三种网络模式
K8S 中 Pod 网络通信
1Pod 内容器与容器之间的通信
在同一个 Pod 内的容器Pod 内的容器是不会跨宿主机的共享同一个网络命令空间相当于它们在同一台机器上一样可以用 localhost 地址访问彼此的端口。
2同一个 Node 内 Pod 之间的通信
每个 Pod 都有一个真实的全局 IP 地址同一个 Node 内的不同 Pod 之间可以直接采用对方 Pod 的 IP 地址进行通信Pod1 与 Pod2 都是通过 Veth 连接到同一个 docker0 网桥网段相同所以它们之间可以直接通信。
3不同 Node 上 Pod 之间的通信
Pod 地址与 docker0 在同一网段docker0 网段与宿主机网卡是两个不同的网段且不同 Node 之间的通信只能通过宿主机的物理网卡进行。
要想实现不同 Node 上 Pod 之间的通信就必须想办法通过主机的物理网卡 IP 地址进行寻址和通信。因此要满足两个条件Pod 的 IP 不能冲突将 Pod 的 IP 和所在的 Node 的 IP 关联起来通过这个关联让不同 Node 上 Pod 之间直接通过内网 IP 地址通信。
Overlay Network
叠加网络在二层或者三层基础网络上叠加的一种虚拟网络技术模式该网络中的主机通过虚拟链路隧道连接起来类似于VPN。
VXLAN
将源数据包封装到UDP中并使用基础网络的IP/MAC作为外层报文头进行封装然后在以太网上传输到达目的地后由隧道端点解封装并将数据发送给目标地址。
2.2 Flannel 插件
Flannel 的功能是让集群中的不同节点主机创建的 Docker 容器都具有全集群唯一的虚拟 IP 地址。
Flannel 是 Overlay 网络的一种也是将 TCP 源数据包封装在另一种网络包里面进行路由转发和通信目前支持 udp、vxlan、 host-GW 3种数据转发方式。
UDP默认方式基于应用转发配置简单性能最差VXLAN基于内核转发Host-gw性能最好、配置麻烦
1Flannel UDP 模式端口8285
udp模式的工作原理基于应用进行转发Flannel提供路由表Flannel封装、解封装
数据从 node01 上 Pod 的源容器中发出后经由所在主机的 docker0 虚拟网卡转发到 flannel0 虚拟网卡flanneld 服务监听在 flannel0 虚拟网卡的另外一端。
Flannel 通过 Etcd 服务维护了一张节点间的路由表。源主机 node01 的 flanneld 服务将原本的数据内容封装到 UDP 中后根据自己的路由表通过物理网卡投递给目的节点 node02 的 flanneld 服务数据到达以后被解包然后直接进入目的节点的 flannel0 虚拟网卡之后被转发到目的主机的 docker0 虚拟网卡最后就像本机容器通信一样由 docker0 转发到目标容器。
ETCD 之 Flannel 提供说明
存储管理Flannel可分配的IP地址段资源监控 ETCD 中每个 Pod 的实际地址并在内存中建立维护 Pod 节点路由表
2 vxlan 模式端口8472
vxlan 是一种overlay虚拟隧道通信技术通过三层网络搭建虚拟的二层网络跟 udp 模式具体实现不太一样
1udp模式是在用户态实现的数据会先经过tun网卡到应用程序应用程序再做隧道封装再进一次内核协议栈而vxlan是在内核当中实现的只经过一次协议栈在协议栈内就把vxlan包组装好。
2udp模式的tun网卡是三层转发使用tun是在物理网络之上构建三层网络属于ip in udpvxlan模式是二层实现 overlay是二层帧属于mac in udp。
3vxlan由于采用mac in udp的方式所以实现起来会涉及mac地址学习arp广播等二层知识udp模式主要关注路由
Flannel VXLAN模式跨主机的工作原理Flannel提供路由表由内核封装、解封装
1、数据帧从主机A上Pod的源容器中发出后经由所在主机的docker0/cni0 网络接口转发到flannel.1 接口
2、flannel.1 收到数据帧后添加VXLAN 头部封装在UDP报文中
3、主机A通过物理网卡发送封包到主机B的物理网卡中
4、主机B的物理网卡再通过VXLAN 默认端口8472转发到flannel.1 接口进行解封装
官方给出的预设接口为4789而实际运用的其实为8472端口
5、解封装以后内核将数据帧发送到Cni0 最后由Cni0 发送到桥接到此接口的容器B中。
(3) UDP和VXLAN的区别
由于UDP模式是在用户态做转发即基于应用进行转发由应用程序进行封装和解封装会多一次报文隧道封装因此性能上会比在内核态做转发的VXLAN模式差。
UDP和VXLAN的区别
UDP基于应用程序进行转发由应用程序进行封装和解封装VXLAN由内核进行封装和解封装内核效率比应用程序要高所以VXLAN比UDP要快。UDP是数据包VXLAN是数据帧。UDP的网卡Flannel0VXLAN的网卡Flannel.1。 4知识延申vlan和vxlan的区别 1vxlan支持更多的二层网络
vlan使用12位bit表示vlan ID因此最多支持2^124096个vlan可用数量为4094
vxlan使用的ID使用24位bit最多可以支持2^24个
2vxlan对已有的网络路径利用效率更高
vlan使用STPspanning tree protocol避免环路会将一半的网络路径阻塞。
vxlan的数据包封装成UDP通过网络层传输可以使用所有的网络路径。
3vxlan可以防止物理交换机Mac表耗尽
vlan需要在交换机的Mac表中记录Mac物理地址。
vxlan采用隧道机制Mac物理地址不需记录在交换机。
4VXLAN在一定程度上可以实现逻辑网络拓扑和物理网络拓扑的解耦
VXLAN技术通过隧道技术在物理的三层网络中虚拟二层网络处于VXL AN网络的终端无法察觉到VXL AN的通信过程这样也就使得逻辑网络拓扑和物理网络拓扑实现了一定程度的解耦网络拓扑的配置对于物理设备的配置的依赖程度有所降低配置更灵活更方便。
5VXLAN技术还具有多租户支持的特性
VLAN技术仅仅解决了二层网络广播域分割的问题而VXL AN技术还具有多租户支持的特性通过VXLAN分割各个租户可以独立组网、通信地址分配方面和多个租户之间地址冲突的问题也得到了解决。
三、部署网络组件
3.1 部署 flannel //在node1节点上操作
#上传 cni-plugins-linux-amd64-v0.8.6.tgz 和 flannel.tar 到 /opt 目录中
cd /opt/
docker load -i flannel.tarmkdir /opt/cni/bin -p
tar zxvf cni-plugins-linux-amd64-v0.8.6.tgz -C /opt/cni/bin//在node2节点上操作
#上传 cni-plugins-linux-amd64-v0.8.6.tgz 和 flannel.tar 到 /opt 目录中
cd /opt/
docker load -i flannel.tarmkdir /opt/cni/bin -p
tar zxvf cni-plugins-linux-amd64-v0.8.6.tgz -C /opt/cni/bin//在 master01 节点上操作
#上传 kube-flannel.yml 文件到 /opt/k8s 目录中部署 CNI 网络
cd /opt/k8s
kubectl apply -f kube-flannel.yml kubectl get pods -n kube-systemkubectl get nodes
3.2 部署 Calico 该网络插件和flannel插件 选择其一部署即可由于yaml文件过于复杂本次就不再展示
//在 master01 节点上操作
#上传 calico.yaml 文件到 /opt/k8s 目录中部署 CNI 网络
cd /opt/k8s
vim calico.yaml
#修改里面定义Pod网络CALICO_IPV4POOL_CIDR与前面kube-controller-manager配置文件指定的cluster-cidr网段一样- name: CALICO_IPV4POOL_CIDRvalue: 192.168.0.0/16kubectl apply -f calico.yamlkubectl get pods -n kube-system
NAME READY STATUS RESTARTS AGE
calico-kube-controllers-659bd7879c-4h8vk 1/1 Running 0 58s
calico-node-nsm6b 1/1 Running 0 58s
calico-node-tdt8v 1/1 Running 0 58s#等 Calico Pod 都 Running节点也会准备就绪
kubectl get nodes
四、部署 CoreDNS CoreDNS可以为集群中的 service 资源创建一个域名与 IP 的对应关系解析。
service发现是k8s中的一个重要机制其基本功能为在集群内通过服务名对服务进行访问即需要完成从服务名到ClusterIP的解析。
k8s主要有两种service发现机制环境变量和DNS。没有DNS服务的时候k8s会采用环境变量的形式但一旦有多个service环境变量会变复杂为解决该问题我们使用DNS服务。
//在所有 node 节点上操作
#上传 coredns.tar 到 /opt 目录中
cd /opt
docker load -i coredns.tar //在 master01 节点上操作
#上传 coredns.yaml 文件到 /opt/k8s 目录中部署 CoreDNS
cd /opt/k8s
kubectl apply -f coredns.yamlkubectl get pods -n kube-system #DNS 解析测试
kubectl run -it --rm dns-test --imagebusybox:1.28.4 sh/ # nslookup kubernetes