k8s常用 命令 1 2 3 4 5 6 7 8 9 10 11 kubectl get pod #获取pod kubectl get svc #获取服务 -o wide #详细信息 kubectl run nginx-pod --image=nginx:1.17.1 --port=80 #命令式对象管理:直接使用命令去操作kubernetes资源 kubectl create/patch -f nginx-pod.yaml #命令式对象配置:通过命令配置和配置文件去操作kubernetes资源 kubectl apply -f nginx-pod.yaml #声明式对象配置:通过apply命令和配置文件去操作kubernetes资源 kubectl expose deploy nginx --port=80 --target-port=80 --type=NodePort 对外暴力接口
1 空间操作命令 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 #空间操作命令 kubectl get ns/namespace 获取所有 空间名 NAME STATUS AGE default Active 45h # 所有未指定Namespace的对象都会被分配在default命名空间 kube-node-lease Active 45h # 集群节点之间的心跳维护,v1.13开始引入 kube-public Active 45h # 此命名空间下的资源可以被所有人访问(包括未认证用户) kube-system Active 45h # 所有由Kubernetes系统创建的资源都处于这个命名空间 kubectl create ns [group name] #创建空间组名 kubectl delete ns [group name] #删除空间组名 kubectl get ns [group name] #查看指定的ns #获取资源 kubectl get api-resour #指定输出格式 命令:kubectl get ns ns名称 -o 格式参数 # kubernetes支持的格式有很多,比较常见的是wide、json、yaml kubectl get ns default -o yaml #查看ns详情 命令:kubectl describe ns ns名称 kubectl describe ns default #使用配置方式创建一个ns #准备一个ns-dev.yaml文件 apiVersion: v1 kind: Namespace metadata: name: dev #然后就可以执行对应的创建和删除命令了: 创建:kubectl create -f ns-dev.yaml 删除:kubectl delete -f ns-dev.yaml #获取全部节点 kubectl get node #获取全部pod kubectl get pod #查看某个pod内容 kubectl get pod pod_name #获取全部名称空间 kubectl get ns #查看创建的资源 kubectl get pod,svc,deploy # 删除nginx pod,如果是靠deploy控制器创建的pod, 直接删除则会自动创建新的; kubectl delete pod pod名称 # 如果需要删除则直接删除depoly控制器即可,pod会被删除
2 pod操作命令 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 1).# 命令格式: kubectl run (pod控制器名称) [参数] # --image 指定Pod的镜像 # --port 指定端口 # --namespace 指定namespace kubectl run nginx --image=nginx:latest --port=80 --namespace dev deployment.apps/nginx created #创建成功提示 kubectl get pods -n dev # 查看Pod基本信息 kubectl describe pod nginx -n dev # 查看Pod的详细信息 kubectl delete pod nginx -n dev # 删除指定Pod # 这是因为当前Pod是由Pod控制器创建的,控制器会监控Pod状况,一旦发现Pod死亡,会立即重建 # 此时要想删除Pod,必须删除Pod控制器 kubectl get deploy -n dev # 先来查询一下当前namespace下的Pod控制器 kubectl delete deploy nginx -n dev # 接下来,删除此PodPod控制器 kubectl get pods -n dev 稍等片刻,再查询Pod,发现Pod被删除了 apiVersion: v1 #必选,版本号,例如v1 kind: Pod #必选,资源类型,例如 Pod metadata: #必选,元数据 name: string #必选,Pod名称 namespace: string #Pod所属的命名空间,默认为"default" labels: #自定义标签列表 - name: string spec: #必选,Pod中容器的详细定义 containers: #必选,Pod中容器列表 - name: string #必选,容器名称 image: string #必选,容器的镜像名称 imagePullPolicy: [ Always|Never|IfNotPresent ] #获取镜像的策略 command: [string] #容器的启动命令列表,如不指定,使用打包时使用的启动命令 args: [string] #容器的启动命令参数列表 workingDir: string #容器的工作目录 volumeMounts: #挂载到容器内部的存储卷配置 - name: string #引用pod定义的共享存储卷的名称,需用volumes[]部分定义的的卷名 mountPath: string #存储卷在容器内mount的绝对路径,应少于512字符 readOnly: boolean #是否为只读模式 ports: #需要暴露的端口库号列表 - name: string #端口的名称 containerPort: int #容器需要监听的端口号 hostPort: int #容器所在主机需要监听的端口号,默认与Container相同 protocol: string #端口协议,支持TCP和UDP,默认TCP env: #容器运行前需设置的环境变量列表 - name: string #环境变量名称 value: string #环境变量的值 resources: #资源限制和请求的设置 limits: #资源限制的设置 cpu: string #Cpu的限制,单位为core数,将用于docker run --cpu-shares参数 memory: string #内存限制,单位可以为Mib/Gib,将用于docker run --memory参数 requests: #资源请求的设置 cpu: string #Cpu请求,容器启动的初始可用数量 memory: string #内存请求,容器启动的初始可用数量 lifecycle: #生命周期钩子 postStart: #容器启动后立即执行此钩子,如果执行失败,会根据重启策略进行重启 preStop: #容器终止前执行此钩子,无论结果如何,容器都会终止 livenessProbe: #对Pod内各容器健康检查的设置,当探测无响应几次后将自动重启该容器 exec: #对Pod容器内检查方式设置为exec方式 command: [string] #exec方式需要制定的命令或脚本 httpGet: #对Pod内个容器健康检查方法设置为HttpGet,需要制定Path、port path: string port: number host: string scheme: string HttpHeaders: - name: string value: string tcpSocket: #对Pod内个容器健康检查方式设置为tcpSocket方式 port: number initialDelaySeconds: 0 #容器启动完成后首次探测的时间,单位为秒 timeoutSeconds: 0 #对容器健康检查探测等待响应的超时时间,单位秒,默认1秒 periodSeconds: 0 #对容器监控检查的定期探测时间设置,单位秒,默认10秒一次 successThreshold: 0 failureThreshold: 0 securityContext: privileged: false restartPolicy: [Always | Never | OnFailure] #Pod的重启策略 nodeName: <string> #设置NodeName表示将该Pod调度到指定到名称的node节点上 nodeSelector: obeject #设置NodeSelector表示将该Pod调度到包含这个label的node上 imagePullSecrets: #Pull镜像时使用的secret名称,以key:secretkey格式指定 - name: string hostNetwork: false #是否使用主机网络模式,默认为false,如果设置为true,表示使用宿主机网络 volumes: #在该pod上定义共享存储卷列表 - name: string #共享存储卷名称 (volumes类型有很多种) emptyDir: {} #类型为emtyDir的存储卷,与Pod同生命周期的一个临时目录。为空值 hostPath: string #类型为hostPath的存储卷,表示挂载Pod所在宿主机的目录 path: string #Pod所在宿主机的目录,将被用于同期中mount的目录 secret: #类型为secret的存储卷,挂载集群与定义的secret对象到容器内部 scretname: string items: - key: string path: string configMap: #类型为configMap的存储卷,挂载预定义的configMap对象到容器内部 name: string items: - key: string path: string
3 label操作 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 #查看node标签 kubectl get node --show-labels #根据标签查询节点 kubeclt get node -l 标签名称 # 为pod资源打标签 kubectl label pod nginx-pod version=1.0 -n dev #为node标签 kubectl label node 节点名称 标签key=标签value 例如 kubectl label node nod02 app=test # 为pod资源更新标签 kubectl label pod nginx-pod version=2.0 -n dev --overwrite # 查看标签 kubectl get pod nginx-pod -n dev --show-labels # 筛选标签 kubectl get pod -n dev -l version=2.0 --show-labels kubectl get pod -n dev -l version!=2.0 --show-labels #删除标签 kubectl label pod nginx-pod version- -n dev #文件配置方式 apiVersion: v1 kind: Pod metadata: name: nginx namespace: dev labels: version: "3.0" env: "test"
4 replicatSet操作命令 1 2 3 4 5 6 7 8 #查看 kubectl get pods,deploy,replicaset -o wide -n dev # 命令行缩容 kubectl scale rs xdclass-rs --replicas=2 -n dev # 删除,可以直接删除rs;也可以通过yaml删除 kubectl delete -f replicaset-nginx.yaml
5 Deployment 操作命令 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 # 命令格式: kubectl create deployment 名称 [参数] # --image 指定pod的镜像 # --port 指定端口 # --replicas 指定创建pod数量 副本 # --namespace 指定namespace kubectl run nginx --image=nginx:latest --port=80 --replicas=3 -n dev # 查看deployment的信息 kubectl get deploy -n dev # 查看deployment的详细信息 kubectl get deploy -n dev -o wide # UP-TO-DATE:成功升级的副本数量 # AVAILABLE:可用副本的数量 # 查看deployment的详细信息 kubectl describe deploy nginx -n dev #删除deployment kubectl delete deploy nginx -n dev #使用yaml文件创建一个deployment apiVersion: apps/v1 kind: Deployment metadata: name: nginx namespace: dev spec: replicas: 3 selector: matchLabels: run: nginx template: metadata: labels: run: nginx spec: containers: - image: nginx:latest name: nginx ports: - containerPort: 80 protocol: TCP
6 svc操作命令 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 type类型为["ClusterIP", "ExternalName", "LoadBalancer", "NodePort"] ClusterIP:这个ip地址只用集群内部可访问,例如curl 10.101.214.194:8080 NodePort:外部也可以访问的Service,例如http://192.168.72.128:31928/ # 暴露Service kubectl expose deploy cattle-cluster-agent-8686dccfb4-sj85p --name=cattle-agent --type=ClusterIP --port=800 --target-port=800 -n cattle-system # 查看service kubectl get svc svc-nginx1 -n dev -o wide # 创建外部也可以访问的Service,需要修改type为NodePort kubectl expose deploy nginx --name=svc-nginx2 --type=NodePort --port=80 --target-port=80 -n dev # 查看service kubectl get svc svc-nginx2 -n dev -o wide # 外部访问 http://192.168.72.128:31928/
7 pod操作 7.1 配置文件创建 pod-base.yaml 1 2 3 4 5 6 7 8 9 10 11 12 13 apiVersion: v1 kind: Pod metadata: name: pod-base namespace: dev labels: user: heima spec: containers: - name: nginx image: nginx:1.17.1 - name: busybox image: busybox:1.30
7.2 镜像拉取 pod-imagepullpolicy.yaml文件 1 2 3 4 5 6 7 8 9 10 11 12 apiVersion: v1 kind: Pod metadata: name: pod-imagepullpolicy namespace: dev spec: containers: - name: nginx image: nginx:1.17.1 imagePullPolicy: Never # 用于设置镜像拉取策略 - name: busybox image: busybox:1.30
imagePullPolicy,用于设置镜像拉取策略,kubernetes支持配置三种拉取策略:
Always:总是从远程仓库拉取镜像(一直远程下载)
IfNotPresent:本地有则使用本地镜像,本地没有则从远程仓库拉取镜像(本地有就本地 本地没远程下载)
Never:只使用本地镜像,从不去远程仓库拉取,本地没有就报错 (一直使用本地)
1 2 #查看Pod详情 kubectl describe pod pod-imagepullpolicy -n dev
7.3 启动命令 pod-command.yaml 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 apiVersion: v1 kind: Pod metadata: name: pod-command namespace: dev spec: containers: - name: nginx image: nginx:1.17.1 - name: busybox image: busybox:1.30 command: ["/bin/sh","-c","touch /tmp/hello.txt;while true;do /bin/echo $(date +%T) >> /tmp/hello.txt; sleep 3; done;"] # 进入pod中的busybox容器,查看文件内容 # 补充一个命令: kubectl exec pod名称 -n 命名空间 -it -c 容器名称 /bin/sh 在容器内部执行命令 # 使用这个命令就可以进入某个容器的内部,然后进行相关操作了 # 比如,可以查看txt文件的内容 kubectl exec pod-command -n dev -it -c busybox /bin/sh /# tail -f /tmp/hello.txt 特别说明: 通过上面发现command已经可以完成启动命令和传递参数的功能,为什么这里还要提供一个args选项,用于传递参数呢?这其实跟docker有点关系,kubernetes中的command、args两项其实是实现覆盖Dockerfile中ENTRYPOINT的功能。 1 如果command和args均没有写,那么用Dockerfile的配置。 2 如果command写了,但args没有写,那么Dockerfile默认的配置会被忽略,执行输入的command 3 如果command没写,但args写了,那么Dockerfile中配置的ENTRYPOINT的命令会被执行,使用当前args的参数 4 如果command和args都写了,那么Dockerfile的配置被忽略,执行command并追加上args参数
7.4 环境变量 pod-env.yaml 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 apiVersion: v1 kind: Pod metadata: name: pod-env namespace: dev spec: containers: - name: busybox image: busybox:1.30 command: ["/bin/sh","-c","while true;do /bin/echo $(date +%T);sleep 60; done;"] env: # 设置环境变量列表 - name: "username" value: "admin" - name: "password" value: "123456"
8 亲和度(Node Affinity) Node Affinity(节点亲和性)来控制 Pod 的调度位置。Node Affinity 允许您为 Pod 指定节点的标签,并要求 Kubernetes 只在满足这些要求的节点上进行调度。
nodeAffinity:
requiredDuringSchedulingIgnoredDuringExecution
:表示在调度 Pod 时,必须满足这个要求。如果没有符合条件的节点,Pod 就会一直处于未调度状态,直到满足条件。
preferredDuringSchedulingIgnoredDuringExecution
:表示尽量在符合条件的节点上进行调度。如果没有符合条件的节点,Pod 仍然会被调度到其他节点上。
operator:
Exists
:表示键必须存在。
DoesNotExist
:表示键必须不存在。
In
:表示匹配多个值。
NotIn
:表示不匹配多个值。
ExistsMatch
:表示键必须存在,并且其值与提供的正则表达式匹配。
DoesNotExistMatch
:表示键必须不存在,或者存在但其值不匹配提供的正则表达式。
PreferredDuringSchedulingIgnoredDuringExecution
:表示尽量在符合条件的节点上进行调度。如果没有符合条件的节点,Pod 仍然会被调度到其他节点上。
RequiredDuringSchedulingIgnoredDuringExecution
:表示在调度 Pod 时,必须满足这个要求。如果没有符合条件的节点,Pod 就会一直处于未调度状态,直到满足条件。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 #给节点打上标签 kubectl label nodes <node-name> disktype=ssd #例如 apiVersion: v1 kind: Pod metadata: name: my-pod spec: containers: - name: my-container image: nginx affinity: nodeAffinity: requiredDuringSchedulingIgnoredDuringExecution: #一直在含有disktype标签的node上调度,类似nodeSelector nodeSelectorTerms: - matchExpressions: - key: disktype #标签key operator: In values: - ssd #标签值
在nodeSelector中的operator:
Exists
:表示键必须存在。
DoesNotExist
:表示键必须不存在。
In
:表示匹配多个值。
NotIn
:表示不匹配多个值。
ExistsMatch
:表示键必须存在,并且其值与提供的正则表达式匹配。
DoesNotExistMatch
:表示键必须不存在,或者存在但其值不匹配提供的正则表达式。
PreferredDuringSchedulingIgnoredDuringExecution
:表示尽量在符合条件的节点上进行调度。如果没有符合条件的节点,Pod 仍然会被调度到其他节点上。
RequiredDuringSchedulingIgnoredDuringExecution
:表示在调度 Pod 时,必须满足这个要求。如果没有符合条件的节点,Pod 就会一直处于未调度状态,直到满足条件。
9 Taint与Tolerations(污点与容忍度) 9.1 Taint(污点) 节点打上污点,以限制 Pod 能够在哪些节点上调度。节点污点可以防止一些 Pod 被调度到不合适的节点上。
1 2 3 4 5 6 7 8 9 10 11 12 13 #增加 kubectl taint nodes <node-name> <key>=<value>:<effect> #删除 kubectl taint nodes <node-name> <key>=<value>:<effect>- effect: NoSchedule:表示将该节点标记为不可调度的,新的 Pod 不会被调度到该节点上。 NoExecute:表示从该节点上删除任何正在运行的 Pod,新的 Pod 不会被调度到该节点上。 PreferNoSchedule:表示将该节点标记为不优先调度的,只有当没有其他可用节点时,新的 Pod 才会被调度到该节点上。 例如: kubectl taint nodes k8s-node02 ck=true:NoSchedule 新的pod在不可调度到该节点,不影响
9.3 Tolerations(容忍度) Tolerations 则是让 Pod 容忍 Taints 的机制。当您将 Taints 添加到 Node 上时,只有具有相应 Tolerations 的 Pod 才能被调度到该 Node 上。 Pod 可以具有多个 Tolerations,每个 Tolerations 规定了 Pod 能够容忍哪种 Taints。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 需要pod中增加: tolerations: - key: "key1" operator: <Equal> value: "value1" effect: <effect> operator: Equal:表示只有 Taint 的值与 Tolerations 的值完全相等时,Pod 才能容忍这个 Taint。 Exists:表示只要 Tolerations 中的键存在于 Taint 中,Pod 就能容忍这个 Taint。 DoesNotExist:表示只要 Tolerations 中的键不存在于 Taint 中,Pod 就能容忍这个 Taint。 例如: apiVersion: v1 kind: Pod metadata: name: mypod spec: containers: - name: mycontainer image: myimage tolerations: - key: "ck" operator: "Equal" value: "true" effect: "NoSchedule" 注:如果operator设置为Exists时,value默认为 no tolerations: - key: "key1" operator: "Exists" effect: "NoSchedule"
10 禁止调度与驱逐pod 10.1禁止调度 禁止后新的pod不会在该节点进行创建,一般用于维护升级节点等
1 2 3 4 5 #禁止调度 kubectl cordon <node_name> #解决禁止调度 kubectl uncordon <node_name>
10.2 驱逐所有pod
相当是删除该节点的所有pod,漂移到其他节点,注意:DaemonSet(ds)资源无法调度,打了nodeSelector标签的pod应确保至少有一个节点可供他漂移,否则pod 无node调度
1 kubectl drain <node_name>
版权声明: 版权归作者所有。如需商业转载,请联系作者授权。对于非商业转载,请注明来源。 作者联系方式:todohuai@qq.com