Docker从入门到掉坑(五):继续挖一挖 k8s
在之前的几篇文章中,主要还是讲解了关于简单的docker容器该如何进行管理和操作及k8s上手避坑,在接下来的这篇文章开始,我们将继续对k8s模块的学习
pod是啥
在k8s里面,有很多新的技术概念,其中有一个东西被称之为pod。pod是k8s集群里面运行和部署的最小单元,它的设计理念是,一个pod可以承载多个容器,并且共享网络地址和文件系统,内部的容器通过进程间的通信相互访问。
官方图片附上:
复制控制器(replication controller,rc)
通常我们在k8s集群里面会有成千上百个pod,那么对于pod的管理也是需要有一定的机制,k8s内部有个叫做rc(replication controller) 的复制控制器。
rc主要的是监控pod节点的数目,当我们在启动pod的时候希望有多个pod副本,可以使用rc来控制启动的数目,如果期间有部分pod挂掉了,rc会自动进行重启pod。
k8s里面常见的pod操作场景
1.在实操的过程中,如果你遇到了下边的这种情况,某个pod一直起不来
[root@localhost ~]# kubectl get pods name ready status restarts age mysql-rc-p8blq 0/1 errimagepull 0 16h nginx 1/1 running 0 29h nginx-deployment-54f57cf6bf-f9p92 0/1 containercreating 0 77s nginx-deployment-54f57cf6bf-mqq7x 0/1 imagepullbackoff 0 18m nginx-deployment-9f46bb5-kwxwh 0/1 imagepullbackoff 0 13m tomcat-565cd88dc7-qlqtk 1/1 running 0 2d3h
这个时候pod可能会出现启动失败的情况,那么这个时候该如何去终止对应的pod呢?
通过以下的命令来对容器进行删除即可:
[root@localhost k8s]# kubectl delete -f ./mysql-rc.yaml replicationcontroller "mysql-rc" deleted [root@localhost k8s]# kubectl delete -f ./mysql-svc.yaml service "mysql-svc" deleted [root@localhost k8s]# kubectl delete -f ./nginx-deployment.yaml deployment.apps "nginx-deployment" deleted [root@localhost k8s]# kubectl get pods name ready status restarts age nginx 1/1 running 0 29h tomcat-565cd88dc7-qlqtk 1/1 running 0 2d3h
2.如何运行单容器的pods
kubectl run example --image=nginx
3.查看某个pod详细信息
[root@localhost k8s]# kubectl get pod nginx -o wide name ready status restarts age ip node nominated node readiness gates nginx 1/1 running 0 29h 172.17.0.7 minikube <none> <none>
4.查看某pod里面的详情描述内容
[root@localhost k8s]# kubectl describe pod nginx name: nginx namespace: default priority: 0 node: minikube/10.1.10.51 start time: mon, 02 dec 2019 09:49:28 +0800 labels: app=pod-example annotations: <none> status: running ip: 172.17.0.7 ips: ip: 172.17.0.7 containers: web: container id: docker://53d066b49233d17724b8fd0d5a4d6a963f33e6ea4e0805beb7745ee267683ed8 image: nginx image id: docker-pullable://nginx@sha256:50cf965a6e08ec5784009d0fccb380fc479826b6e0e65684d9879170a9df8566 port: 80/tcp host port: 0/tcp state: running started: mon, 02 dec 2019 09:51:22 +0800 ready: true restart count: 0 environment: <none> mounts: /var/run/secrets/kubernetes.io/serviceaccount from default-token-7mltd (ro) conditions: type status initialized true ready true containersready true podscheduled true volumes: default-token-7mltd: type: secret (a volume populated by a secret) secretname: default-token-7mltd optional: false qos class: besteffort node-selectors: <none> tolerations: node.kubernetes.io/not-ready:noexecute for 300s node.kubernetes.io/unreachable:noexecute for 300s events: <none>
5.替换pod对应的配置规则文件
kubectl replace --force -f 规则文件
6.假设说你在操控pod节点的过程中不小心写错了镜像的地址,导致pod启动失败,这个时候我们可以删除机器上边的某个pod节点,例如:
删除一个name为nginx的pod节点:
[root@localhost k8s]# kubectl delete pod nginx pod "nginx" deleted
7.删除某台机器上边deployment信息:
[root@localhost k8s]# kubectl delete deployment tomcat deployment.apps "tomcat" deleted
8.多容器pod启动的步骤
我们启动多个容器的pod时候,最好使用create命令来操作,并且在创建的时候最好是使用yaml(或者json格式)这种文件来对容器的启动进行管理:
kubectl create -f file
通常启动pod的yaml文件的格式基本如下:
apiversion: v1 kind: pod metadata: name: rss-site labels: app: web spec: containers: - name: 容器1 image: 镜像名1 ports: - containerport: 80 - name: 容器1 image: 镜像名2 ports: - containerport: 88 spec:
如果启动过程中需要有多个docker容器,那么就写多个name,image,ports这类配置即可。
在k8s的pod启动过程中,如果出现多次发现镜像拉取失败的情况,通常是因为镜像源地址出错,这时候需要重置docker镜像源地址:
# vi /etc/docker/daemon.json { "registry-mirrors": ["http://hub-mirror.c.163.com"] } systemctl restart docker.service
设置好这份json文件之后,我们进行restart操作即可。
编写好了yaml文件之后,再次使用 kubectl create -f file命令即可。
最后通过kubectl get pod指令来验证pod的状态即可。
同理,如果我们需要用pod装载java程序的话,例如说是springboot应用,只需要将springboot应用打包成docker镜像,然后在yml配置里面引入就好了。
9.查看pod内部节点的日志信息
kubectl logs <pod_name> kubectl logs -f <pod_name> #类似tail -f的方式查看(tail -f 实时查看日志文件 tail -f 日志文件log)
前边我们主要都是讲解一些基于容器化技术的实战,操作了这么多容器化的api命令,其背后架构的设计思路却又是怎样的呢?
10.kubernetes的基本架构
用一句简单的话语来介绍,kubernetes就是一个容器的集群管理系统,通过kubernetes可以实现对于容器集群化的自动化部署,自动化扩容,维护等作用。
kubernetes集群是由一个master来负责对各个节点进行管理的,其中被管理的各个node节点可能会是一些虚拟机或者小型机器。在每个node节点上都会运作有各种各样的pod,而pod通常会是各种各样的docker容器。
基本的架构图如下所示:
master模块
kubectl主要的作用是对kubernetes发送命令,通过使用apiserver来调用kubernets对内部的各个node节点进行部署和控制。
apiserver的主要工作就是对各个node节点进行增删改查,提到对节点数据的操作,我们不得不得说明一下etcd。etcd主要是存储一些节点的数据信息,并且每次kubectl发送过来的指令都会被apiserver先存储到etcd中。
controller manager 的作用主要是监控各个容器的情况。controller manager会通过监听api server里面的提供的一个list watch接口来监控各个集群资源的数据,从而调整资源的状态。
举个栗子来讲:
在成百上千的微服务系统中,假设说某个节点出现了crash,那么这个时候controller manager就会自动地进行节点的修复,故障转移,这样就能很好地减轻了运维人员的压力。
scheduler 主要是一个调度的作用,将容器部署到指定的机器上边,然后将pod和node资源进行映射,当节点数目变多了之后,scheduler会自动进行资源的分配。所以说白了,scheduler是老大,它来决定每个pod要放置在哪个node上边,并且命令kubelet进行容器的部署。
node模块
node是k8s的工作节点,node 一般是一个虚拟机或者物理机,每个 node 上都运行三个服务,分别是container runtime,kubelet,kube-proxy三类。
kubelet 主要是负责接收master的命令,并且执行,同时还要维护容器的生命周期。
kube-proxy 主要的作用就是负责负载均衡,处理流量的转发问题。
container runtime 是负责镜像管理以及pod和容器的真正运行。
从k8s的系统架构、技术概念和设计理念,我们可以看到k8s系统最核心的两个设计理念:一个是容错性,一个是易扩展性。容错性实际是保证k8s系统稳定性和安全性的基础,易扩展性是保证k8s对变更友好,可以快速迭代增加新功能的基础。