四、进入容器

# 进入pod容器,但是对权限要求也较多
kubectl exec -it podName sh
# 通过bash获得 pod 中某个容器的TTY,相当于登录容器 kubectl exec -it <pod-name> -c <container-name> -- bash

五、扩缩容、滚动更新

# Pod容器端口转发/端口映射,expose
kubectl expose deployment/<Deployment Name>  --type="NodePort" --port=80 --name=nginx
# Pod扩容与缩容
kubectl scale deployment/<Deployment Name> --replicas 5    # 扩容
kubectl scale deployment/<Deployment Name> --replicas 3    # 缩容
# autoscale命令会给一个rc指定一个副本数的范围,在实际运行中根据pod中运行的程序的负载自动在指定的范围内对pod进行扩容或缩容。
kubectl autoscale rc rc-nginx-3 --min=1 --max=4
 
# 滚动更新(在不中断业务的情况下更新Pod)
kubectl rolling-update <pod_name> -f <new_yaml_file>
rolling-update每次起一个新的pod,等新pod完全起来后删除一个旧的pod,直到替换掉所有的pod。
需要注意的是当我们执行rolling-update命令前需要准备好新的RC配置文件以及ConfigMap配置文件,
RC配置文件中需要指定升级后需要使用的镜像名称,或者可以使用
kubectl rolling-update redis –image=redis-2.0直接指定镜像名称的方式直接升级
# 中止update回滚到之前的版本:
kubectl rolling-update <pod_name> -rollback

六、删除资源

# 删除容器(带副本数的)
kubectl delete deployment nginx-shooter #先删除控制器数量
kubectl get pod
kubectl delete pod [podName]
kubectl delete svc nginx-shooter
# 删除所有Pod
kubectl delete deployment --all
kubectl get pod
kubectl delete pod --all
kubectl delete svc [服务名称]
# 删除服务
kubectl get svc
kubectl delete svc 服务名
# 使用yaml文件也可以直接删除所创建出来的内容
[root@ku8-1 tmp] # kubectl delete -f yamls/sonar.yaml replicationcontroller "sonarqube" deleted
# 根据label删除
kubectl delete po -lapp=nginx-2

七、集群管理(Cluster Management Commands)

kubectl rollout对资源进行管理。可用资源包括:deployment、daemonset。
子命令:
DaemonSet保证在每个Node上都运行一个容器副本,常用来部署一些集群的日志、监控或者其他系统管理应用。
典型的应用包括:
日志收集,比如fluentd,logstash等
系统监控,比如Prometheus Node Exporter,collectd,New Relic agent,Ganglia gmond等
系统程序,比如kube-proxy, kube-dns, glusterd, ceph等

# 节点维护 cordon, drain, uncordon

这三个命令是正式release的1.2新加入的命令,三个命令一起介绍,是因为三个命令配合使用可以实现节点的维护。
在1.2之前,因为没有相应的命令支持,如果要维护一个节点,只能stop该节点上的kubelet将该节点退出集群,使集群不在将新的pod调度到该节点上。如果该节点上本生就没有pod在运行,则不会对业务有任何影响。如果该节点上有pod正在运行,kubelet停止后,master会发现该节点不可达,而将该节点标记为notReady状态,不会将新的pod调度到该节点上。同时,会在其他节点上创建新的pod替换该节点上的pod。
这种方式虽然能够保证集群的健壮性,但是仍然有些暴力,如果业务只有一个副本,而且该副本正好运行在被维护节点上的话,可能仍然会造成业务的短暂中断。
1.2中新加入的这3个命令可以保证维护节点时,平滑的将被维护节点上的业务迁移到其他节点上,保证业务不受影响。
1)首先查看当前集群所有节点状态,可以看到共四个节点都处于ready状态;
2)查看当前nginx两个副本分别运行在d-node1和k-node2两个节点上;
3)使用cordon命令将d-node1标记为不可调度;
4)再使用kubectl get nodes查看节点状态,发现d-node1虽然还处于Ready状态,但是同时还被禁止了调度,这意味着新的pod将不会被调度到d-node1上。
5)再查看nginx状态,没有任何变化,两个副本仍运行在d-node1和k-node2上;
6)执行drain命令,将运行在d-node1上运行的pod平滑的赶到其他节点上;
7)再查看nginx的状态发现,d-node1上的副本已经被迁移到k-node1上;这时候就可以对d-node1进行一些节点维护的操作,如升级内核,升级Docker等;
8)节点维护完后,使用uncordon命令解锁d-node1,使其重新变得可调度;
9)检查节点状态,发现d-node1重新变回Ready状态。

# top 命令:用于查看资源的cpu,内存磁盘等资源的使用率

# 打印当前集群支持的api版本

kubectl api-versions

八、生成文件

生成yaml资源配置文件方法:
# 用run命令生成yaml文件
kubectl create deployment nginx --image=nginx:1.14 -o yaml --dry-run > my.deploy.yaml
 # 用get命令导出yaml文件
kubectl get deploy nginx-deployment -o yaml --export > my.deploy.yaml
 # Pod容器的字段拼写忘记了
kubectl explain pods.spec.container
 
内容来源于网络如有侵权请私信删除