分享

最新、最全、最详细的 K8S 学习笔记总结(2021最新版)(三)


问题导读

1.生产环境有哪些需要注意的?
2.Kubernetes健康检查作用是什么?
3.标签的作用是什么?


上一篇:
最新、最全、最详细的 K8S 学习笔记总结(2021最新版)(二)
https://www.aboutyun.com/forum.php?mod=viewthread&tid=31809


生产环境最佳实践
使用Kubernetes的一些策略,在安全性、监控、网络、治理、存储、容器生命周期管理和平台选择方面应用最佳实践。下面让我们来看看Kubernetes的一些生产最佳实践。在生产中运行Kubernetes并不容易; 有以下几个方面需要注意。



是否使用存活探针和就绪探针进行健康检查?
管理大型分布式系统可能会很复杂,特别是当出现问题时,我们无法及时得到通知。为了确保应用实例正常工作,设置 Kubernetes健康检查至关重要。

通过创建自定义运行健康检查,可以有效避免分布式系统中僵尸服务运行,具体可以根据环境和需要对其进行调整。

就绪探针的目的是让 Kubernetes知道该应用是否已经准备好为流量服务。Kubernetes将始终确保准备就绪探针通过之后开始分配服务,将流量发送到Pod。

Liveness-存活探针
你怎么知道你的应用程序是活的还是死的?存活探针可以让你做到这一点。如果你的应用死了,Kubernetes会移除旧的Pod并用新Pod替换它。

Resource Management-资源管理
为单个容器指定资源请求和限制是一个很好的实践。另一个好的实践是将Kubernetes环境划分为不同团队、部门、应用程序和客户机的独立名称空间。

Kubernetes资源使用情况
Kubernetes资源使用指的是容器/pod在生产中所使用的资源数量。

因此,密切关注pods的资源使用情况是非常重要的。一个明显的原因是成本,因为越高的资源利用证明越少的资源浪费。

Resource utilization资源利用率
Ops团队通常希望优化和最大化pods消耗的资源百分比。资源使用情况是Kubernetes环境实际优化程度的指标之一。

您可以认为优化后的 Kubernetes环境中运行的容器的平均CPU等资源利用率是最优的。

启用RBAC
RBAC代表基于角色的访问控制。它是一种用于限制系统/网络上的用户和应用程序的访问和准入的方法。


1.png

authorization.k8s RBAC用于创建授权策略。

在Kubernetes中,RBAC用于授权,使用RBAC,您将能够授予用户、帐户、添加/删除权限、设置规则等权限。因此,它基本上为 Kubernetes集群添加了额外的安全层。RBAC限制谁可以访问您的生产环境和集群。


集群置备和负载均衡
生产级Kubernetes基础设施通常需要考虑某些关键方面,例如高可用性、多主机、多etcd Kubernetes集群等。此类集群的配置通常涉及到Terraform或Ansible等工具。


1.png


一旦集群都设置好了,并且为运行应用程序创建了pods,这些pods就配备了负载平衡器;这些负载均衡器将流量路由到服务。开源的Kubernetes项目并不是默认的负载平衡器;因此,它需要与NGINX Ingress controller与HAProxy或ELB等工具集成,或任何其他工具,扩大Kubernetes的Ingress插件,以提供负载均衡能力。

给Kubernetes对象添加标签
标签就像附加到对象上的键/值对,比如pods。标签是用来标识对象的属性的,这些属性对用户来说是重要的和有意义的。

在生产中使用Kubernetes时,不能忽视的一个重要问题是标签;标签允许批量查询和操作Kubernetes对象。标签的特殊之处在于,它们还可以用于识别Kubernetes对象并将其组织成组。这样做的最佳用例之一是根据pod所属的应用程序对它们进行分组。在这里,团队可以构建并拥有任意数量的标签约定。

配置网络策略
使用Kubernetes时,设置网络策略至关重要。网络策略只不过是一个对象,它使你能够明确地声明和决定哪些流量是允许的,哪些是不允许的。这样,Kubernetes将能够阻止所有其他不想要的和不符合规则的流量。在我们的集群中定义和限制网络流量是强烈推荐的基本且必要的安全措施之一。

Kubernetes中的每个网络策略都定义了一个如上所述的授权连接列表。无论何时创建任何网络策略,它所引用的所有pod都有资格建立或接受列出的连接。简单地说,网络策略基本上就是授权和允许连接的白名单——一个连接,无论它是到还是从pod,只有在应用于pod的至少一个网络策略允许的情况下才被允许。

集群监控和日志记录
在使用Kubernetes时,监控部署是至关重要的。确保配置、性能和流量保持安全更是重要。如果不进行日志记录和监控,就不可能诊断出发生的问题。为了确保合规性,监视和日志记录变得非常重要。在进行监视时,有必要在体系结构的每一层上设置日志记录功能。生成的日志将帮助我们启用安全工具、审计功能和分析性能。

从无状态应用程序开始
运行无状态应用要比运行有状态应用简单得多,但随着Kubernetes运营商的不断增长,这种想法正在改变。对于刚接触Kubernetes的团队来说,建议首先使用无状态应用程序。

建议使用无状态后端,这样开发团队就可以确保不存在长时间运行的连接,从而增加了扩展的难度。使用无状态,开发人员还可以更有效地、零停机部署应用程序。人们普遍认为,无状态应用程序可以方便地根据业务需要进行迁移和扩展。

边启动自动扩缩容
Kubernetes有三种用于部署的自动伸缩功能:水平pod自动伸缩(HPA)、垂直pod自动伸缩(VPA)和集群自动伸缩。

水平pod autoscaler根据感知到的CPU利用率自动扩展deployment、replicationcontroller, replicaset, statefulset的数量。

Vertical pod autoscaling为CPU和内存请求和限制推荐合适的值,它可以自动更新这些值。

Cluster Autoscaler扩展和缩小工作节点池的大小。它根据当前的利用率调整Kubernetes集群的大小。

控制镜像拉取来源
控制在集群中运行所有容器的镜像源。如果您允许您的Pod从公共资源中拉取镜像,您就不知道其中真正运行的是什么。

如果从受信任的注册表中提取它们,则可以在注册表上应用策略以提取安全和经过认证的镜像。

持续学习
不断评估应用程序的状态和设置,以学习和改进。例如,回顾容器的历史内存使用情况可以得出这样的结论:我们可以分配更少的内存,在长期内节省成本。

保护重要服务
使用Pod优先级,您可以决定设置不同服务运行的重要性。例如,为了更好的稳定性,你需要确保RabbitMQ pod比你的应用pod更重要。或者你的入口控制器pods比数据处理pods更重要,以保持服务对用户可用。

零停机时间
通过在HA中运行所有服务,支持集群和服务的零停机升级。这也将保证您的客户获得更高的可用性。

使用pod反亲和性来确保在不同的节点上调度一个pod的多个副本,从而通过计划中的和计划外的集群节点停机来确保服务可用性。

使用pod Disruptions策略,不惜一切代价确保您有最低的Pod副本数量!

计划失败
硬件最终会失败,软件最终会运行。–(迈克尔·哈顿)

结论
众所周知,Kubernetes实际上已经成为 DevOps领域的编排平台标准。Kubernetes从可用性、可伸缩性、安全性、弹性、资源管理和监控的角度来应对生产环境产生的风暴。由于许多公司都在生产中使用Kubernetes,因此必须遵循上面提到的最佳实践,以顺利和可靠地扩展应用程序。

Kubernetes 常见问题总结

如何删除不一致状态下的 rc,deployment,service
在某些情况下,经常发现 kubectl 进程挂起现象,然后在 get 时候发现删了一半,而另外的删除不了

  1. [root@k8s-master ~]# kubectl get -f fluentd-elasticsearch/
  2. NAME DESIRED CURRENT READY AGE
  3. rc/elasticsearch-logging-v1 0 2 2 15h
  4. NAME DESIRED CURRENT UP-TO-DATE AVAILABLE AGE
  5. deploy/kibana-logging 0 1 1 1 15h
  6. Error from server (NotFound): services "elasticsearch-logging" not found
  7. Error from server (NotFound): daemonsets.extensions "fluentd-es-v1.22" not found
  8. Error from server (NotFound): services "kibana-logging" not found
复制代码
删除这些 deployment,service 或者 rc 命令如下:
  1. kubectl delete deployment kibana-logging -n kube-system --cascade=false
  2. kubectl delete deployment kibana-logging -n kube-system  --ignore-not-found
  3. delete rc elasticsearch-logging-v1 -n kube-system --force now --grace-period=0
复制代码


删除不了后如何重置 etcd

  1. rm -rf /var/lib/etcd/*
复制代码
删除后重新 reboot master 结点。
  1. reset etcd 后需要重新设置网络
  2. etcdctl mk /atomic.io/network/config '{ "Network": "192.168.0.0/16" }'
复制代码
启动 apiserver 失败
每次启动都是报如下问题:


  1. start request repeated too quickly for kube-apiserver.service
复制代码
但其实不是启动频率问题,需要查看, /var/log/messages,在我的情况中是因为开启 ServiceAccount 后找不到 ca.crt 等文件,导致启动出错。
  1. May 21 07:56:41 k8s-master kube-apiserver: Flag --port has been deprecated, see --insecure-port instead.
  2. May 21 07:56:41 k8s-master kube-apiserver: F0521 07:56:41.692480 4299 universal_validation.go:104] Validate server run options failed: unable to load client CA file: open /var/run/kubernetes/ca.crt: no such file or directory
  3. May 21 07:56:41 k8s-master systemd: kube-apiserver.service: main process exited, code=exited, status=255/n/a
  4. May 21 07:56:41 k8s-master systemd: Failed to start Kubernetes API Server.
  5. May 21 07:56:41 k8s-master systemd: Unit kube-apiserver.service entered failed state.
  6. May 21 07:56:41 k8s-master systemd: kube-apiserver.service failed.
  7. May 21 07:56:41 k8s-master systemd: kube-apiserver.service holdoff time over, scheduling restart.
  8. May 21 07:56:41 k8s-master systemd: start request repeated too quickly for kube-apiserver.service
  9. May 21 07:56:41 k8s-master systemd: Failed to start Kubernetes API Server.
复制代码
在部署 fluentd 等日志组件的时候,很多问题都是因为需要开启 ServiceAccount 选项需要配置安全导致,所以说到底还是需要配置好 ServiceAccount.


出现 Permission denied 情况
在配置 fluentd 时候出现cannot create /var/log/fluentd.log: Permission denied 错误,这是因为没有关掉 SElinux 安全导致。

可以在 /etc/selinux/config 中将 SELINUX=enforcing 设置成 disabled,然后 reboot

基于 ServiceAccount 的配置
首先生成各种需要的 keys,k8s-master 需替换成 master 的主机名.


  1. openssl genrsa -out ca.key 2048
  2. openssl req -x509 -new -nodes -key ca.key -subj "/CN=k8s-master" -days 10000 -out ca.crt
  3. openssl genrsa -out server.key 2048
  4. echo subjectAltName=IP:10.254.0.1 > extfile.cnf
  5. #ip由下述命令决定
  6. #kubectl get services --all-namespaces |grep 'default'|grep 'kubernetes'|grep '443'|awk '{print $3}'
  7. openssl req -new -key server.key -subj "/CN=k8s-master" -out server.csr
  8. openssl x509 -req -in server.csr -CA ca.crt -CAkey ca.key -CAcreateserial -extfile extfile.cnf -out server.crt -days 10000
复制代码
如果修改 /etc/kubernetes/apiserver 的配置文件参数的话,通过 systemctl start kube-apiserver 启动失败,出错信息为:
  1. Validate server run options failed: unable to load client CA file: open /root/keys/ca.crt: permission denied
复制代码
但可以通过命令行启动 API Server
  1. /usr/bin/kube-apiserver --logtostderr=true --v=0 --etcd-servers=http://k8s-master:2379 --address=0.0.0.0 --port=8080 --kubelet-port=10250 --allow-privileged=true --service-cluster-ip-range=10.254.0.0/16 --admission-control=ServiceAccount --insecure-bind-address=0.0.0.0 --client-ca-file=/root/keys/ca.crt --tls-cert-file=/root/keys/server.crt --tls-private-key-file=/root/keys/server.key --basic-auth-file=/root/keys/basic_auth.csv --secure-port=443 &>> /var/log/kubernetes/kube-apiserver.log &
复制代码
命令行启动 Controller-manager
  1. /usr/bin/kube-controller-manager --logtostderr=true --v=0 --master=http://k8s-master:8080 --root-ca-file=/root/keys/ca.crt --service-account-private-key-file=/root/keys/server.key & >>/var/log/kubernetes/kube-controller-manage.log
复制代码
ETCD 启动不起来-问题<1>



etcd是kubernetes 集群的zookeeper进程,几乎所有的service都依赖于etcd的启动,比如flanneld,apiserver,docker…在启动etcd是报错日志如下:
  1. May 24 13:39:09 k8s-master systemd: Stopped Flanneld overlay address etcd agent.
  2. May 24 13:39:28 k8s-master systemd: Starting Etcd Server...
  3. May 24 13:39:28 k8s-master etcd: recognized and used environment variable ETCD_ADVERTISE_CLIENT_URLS=http://etcd:2379,http://etcd:4001
  4. May 24 13:39:28 k8s-master etcd: recognized environment variable ETCD_NAME, but unused: shadowed by corresponding flag
  5. May 24 13:39:28 k8s-master etcd: recognized environment variable ETCD_DATA_DIR, but unused: shadowed by corresponding flag
  6. May 24 13:39:28 k8s-master etcd: recognized environment variable ETCD_LISTEN_CLIENT_URLS, but unused: shadowed by corresponding flag
  7. May 24 13:39:28 k8s-master etcd: etcd Version: 3.1.3
  8. May 24 13:39:28 k8s-master etcd: Git SHA: 21fdcc6
  9. May 24 13:39:28 k8s-master etcd: Go Version: go1.7.4
  10. May 24 13:39:28 k8s-master etcd: Go OS/Arch: linux/amd64
  11. May 24 13:39:28 k8s-master etcd: setting maximum number of CPUs to 1, total number of available CPUs is 1
  12. May 24 13:39:28 k8s-master etcd: the server is already initialized as member before, starting as etcd member...
  13. May 24 13:39:28 k8s-master etcd: listening for peers on http://localhost:2380
  14. May 24 13:39:28 k8s-master etcd: listening for client requests on 0.0.0.0:2379
  15. May 24 13:39:28 k8s-master etcd: listening for client requests on 0.0.0.0:4001
  16. May 24 13:39:28 k8s-master etcd: recovered store from snapshot at index 140014
  17. May 24 13:39:28 k8s-master etcd: name = master
  18. May 24 13:39:28 k8s-master etcd: data dir = /var/lib/etcd/default.etcd
  19. May 24 13:39:28 k8s-master etcd: member dir = /var/lib/etcd/default.etcd/member
  20. May 24 13:39:28 k8s-master etcd: heartbeat = 100ms
  21. May 24 13:39:28 k8s-master etcd: election = 1000ms
  22. May 24 13:39:28 k8s-master etcd: snapshot count = 10000
  23. May 24 13:39:28 k8s-master etcd: advertise client URLs = http://etcd:2379,http://etcd:4001
  24. May 24 13:39:28 k8s-master etcd: ignored file 0000000000000001-0000000000012700.wal.broken in wal
  25. May 24 13:39:29 k8s-master etcd: restarting member 8e9e05c52164694d in cluster cdf818194e3a8c32 at commit index 148905
  26. May 24 13:39:29 k8s-master etcd: 8e9e05c52164694d became follower at term 12
  27. May 24 13:39:29 k8s-master etcd: newRaft 8e9e05c52164694d [peers: [8e9e05c52164694d], term: 12, commit: 148905, applied: 140014, lastindex: 148905, lastterm: 12]
  28. May 24 13:39:29 k8s-master etcd: enabled capabilities for version 3.1
  29. May 24 13:39:29 k8s-master etcd: added member 8e9e05c52164694d [http://localhost:2380] to cluster cdf818194e3a8c32 from store
  30. May 24 13:39:29 k8s-master etcd: set the cluster version to 3.1 from store
  31. May 24 13:39:29 k8s-master etcd: starting server... [version: 3.1.3, cluster version: 3.1]
  32. May 24 13:39:29 k8s-master etcd: raft save state and entries error: open /var/lib/etcd/default.etcd/member/wal/0.tmp: is a directory
  33. May 24 13:39:29 k8s-master systemd: etcd.service: main process exited, code=exited, status=1/FAILURE
  34. May 24 13:39:29 k8s-master systemd: Failed to start Etcd Server.
  35. May 24 13:39:29 k8s-master systemd: Unit etcd.service entered failed state.
  36. May 24 13:39:29 k8s-master systemd: etcd.service failed.
  37. May 24 13:39:29 k8s-master systemd: etcd.service holdoff time over, scheduling restart.
复制代码



核心语句:
  1. raft save state and entries error: open /var/lib/etcd/default.etcd/member/wal/0.tmp: is a directory
复制代码
进入相关目录,删除 0.tmp,然后就可以启动啦!




ETCD启动不起来-超时问题<2>

问题背景:当前部署了 3 个 etcd 节点,突然有一天 3 台集群全部停电宕机了。重新启动之后发现 K8S 集群是可以正常使用的,但是检查了一遍组件之后,发现有一个节点的 etcd 启动不了。

经过一遍探查,发现时间不准确,通过以下命令 ntpdate ntp.aliyun.com 重新将时间调整正确,重新启动 etcd,发现还是起不来,报错如下:

  1. Mar 05 14:27:15 k8s-node2 etcd[3248]: etcd Version: 3.3.13
  2. Mar 05 14:27:15 k8s-node2 etcd[3248]: Git SHA: 98d3084
  3. Mar 05 14:27:15 k8s-node2 etcd[3248]: Go Version: go1.10.8
  4. Mar 05 14:27:15 k8s-node2 etcd[3248]: Go OS/Arch: linux/amd64
  5. Mar 05 14:27:15 k8s-node2 etcd[3248]: setting maximum number of CPUs to 4, total number of available CPUs is 4
  6. Mar 05 14:27:15 k8s-node2 etcd[3248]: the server is already initialized as member before, starting as etcd member
  7. ...
  8. Mar 05 14:27:15 k8s-node2 etcd[3248]: peerTLS: cert = /opt/etcd/ssl/server.pem, key = /opt/etcd/ssl/server-key.pe
  9. m, ca = , trusted-ca = /opt/etcd/ssl/ca.pem, client-cert-auth = false, crl-file =
  10. Mar 05 14:27:15 k8s-node2 etcd[3248]: listening for peers on https://192.168.25.226:2380
  11. Mar 05 14:27:15 k8s-node2 etcd[3248]: The scheme of client url http://127.0.0.1:2379 is HTTP while peer key/cert
  12. files are presented. Ignored key/cert files.
  13. Mar 05 14:27:15 k8s-node2 etcd[3248]: listening for client requests on 127.0.0.1:2379
  14. Mar 05 14:27:15 k8s-node2 etcd[3248]: listening for client requests on 192.168.25.226:2379
  15. Mar 05 14:27:15 k8s-node2 etcd[3248]: member 9c166b8b7cb6ecb8 has already been bootstrapped
  16. Mar 05 14:27:15 k8s-node2 systemd[1]: etcd.service: main process exited, code=exited, status=1/FAILURE
  17. Mar 05 14:27:15 k8s-node2 systemd[1]: Failed to start Etcd Server.
  18. Mar 05 14:27:15 k8s-node2 systemd[1]: Unit etcd.service entered failed state.
  19. Mar 05 14:27:15 k8s-node2 systemd[1]: etcd.service failed.
  20. Mar 05 14:27:15 k8s-node2 systemd[1]: etcd.service failed.
  21. Mar 05 14:27:15 k8s-node2 systemd[1]: etcd.service holdoff time over, scheduling restart.
  22. Mar 05 14:27:15 k8s-node2 systemd[1]: Starting Etcd Server...
  23. Mar 05 14:27:15 k8s-node2 etcd[3258]: recognized environment variable ETCD_NAME, but unused: shadowed by correspo
  24. nding flag
  25. Mar 05 14:27:15 k8s-node2 etcd[3258]: recognized environment variable ETCD_DATA_DIR, but unused: shadowed by corr
  26. esponding flag
  27. Mar 05 14:27:15 k8s-node2 etcd[3258]: recognized environment variable ETCD_LISTEN_PEER_URLS, but unused: shadowed
  28. by corresponding flag
  29. Mar 05 14:27:15 k8s-node2 etcd[3258]: recognized environment variable ETCD_LISTEN_CLIENT_URLS, but unused: shadow
  30. ed by corresponding flag
  31. Mar 05 14:27:15 k8s-node2 etcd[3258]: recognized environment variable ETCD_INITIAL_ADVERTISE_PEER_URLS, but unuse
  32. d: shadowed by corresponding flag
  33. Mar 05 14:27:15 k8s-node2 etcd[3258]: recognized environment variable ETCD_ADVERTISE_CLIENT_URLS, but unused: sha
  34. dowed by corresponding flag
  35. Mar 05 14:27:15 k8s-node2 etcd[3258]: recognized environment variable ETCD_INITIAL_CLUSTER, but unused: shadowed
  36. by corresponding flag
  37. Mar 05 14:27:15 k8s-node2 etcd[3258]: recognized environment variable ETCD_INITIAL_CLUSTER_TOKEN, but unused: sha
  38. dowed by corresponding flag
  39. Mar 05 14:27:15 k8s-node2 etcd[3258]: recognized environment variable ETCD_INITIAL_CLUSTER_STATE, but unused: sha
  40. dowed by corresponding flag
复制代码
解决方法:

检查日志发现并没有特别明显的错误,根据经验来讲,etcd 节点坏掉一个其实对集群没有大的影响,这时集群已经可以正常使用了,但是这个坏掉的 etcd 节点并没有启动,解决方法如下:

进入 etcd 的数据存储目录进行备份 备份原有数据:

  1. cd /var/lib/etcd/default.etcd/member/
  2. cp *  /data/bak/
复制代码
删除这个目录下的所有数据文件
  1. rm -rf /var/lib/etcd/default.etcd/member/*
复制代码
停止另外两台 etcd 节点,因为 etcd 节点启动时需要所有节点一起启动,启动成功后即可使用。
  1. #master 节点
  2. systemctl stop etcd
  3. systemctl restart etcd
  4. #node1 节点
  5. systemctl stop etcd
  6. systemctl restart etcd
  7. #node2 节点
  8. systemctl stop etcd
  9. systemctl restart etcd
复制代码
CentOS下配置主机互信
在每台服务器需要建立主机互信的用户名执行以下命令生成公钥/密钥,默认回车即可

  1. ssh-keygen -t rsa
复制代码
可以看到生成个公钥的文件。

互传公钥,第一次需要输入密码,之后就OK了。


  1. ssh-copy-id -i /root/.ssh/id_rsa.pub root@192.168.199.132 (-p 2222)
复制代码
-p 端口 默认端口不加-p,如果更改过端口,就得加上-p. 可以看到是在.ssh/下生成了个 authorized_keys的文件,记录了能登陆这台服务器的其他服务器的公钥。

测试看是否能登陆:


  1. ssh 192.168.199.132 (-p 2222)
复制代码
CentOS 主机名的修改

  1. hostnamectl set-hostname k8s-master1
复制代码


Virtualbox 实现 CentOS 复制和粘贴功能
如果不安装或者不输出,可以将 update 修改成 install 再运行。
  1. yum install update
  2. yum update kernel
  3. yum update kernel-devel
  4. yum install kernel-headers
  5. yum install gcc
  6. yum install gcc make
复制代码
运行完后
  1. sh VBoxLinuxAdditions.run
复制代码
删除Pod一直处于Terminating状态
可以通过下面命令强制删除

  1. kubectl delete pod NAME --grace-period=0 --force
复制代码
删除namespace一直处于Terminating状态

可以通过以下脚本强制删除



  1. [root@k8s-master1 k8s]# cat delete-ns.sh
  2. #!/bin/bash
  3. set -e
  4. useage(){
  5.     echo "useage:"
  6.     echo " delns.sh NAMESPACE"
  7. }
  8. if [ $# -lt 1 ];then
  9.     useage
  10.     exit
  11. fi
  12. NAMESPACE=$1
  13. JSONFILE=${NAMESPACE}.json
  14. kubectl get ns "${NAMESPACE}" -o json > "${JSONFILE}"
  15. vi "${JSONFILE}"
  16. curl -k -H "Content-Type: application/json" -X PUT --data-binary @"${JSONFLE}" \
  17.     http://127.0.0.1:8001/api/v1/namespaces/"${NAMESPACE}"/finalize
复制代码


容器包含有效的 CPU/内存 requests 且没有指定 limits 可能会出现什么问题?
下面我们创建一个对应的容器,该容器只有 requests 设定,但是没有 limits 设定,

  1. - name: busybox-cnt02
  2.     image: busybox
  3.     command: ["/bin/sh"]
  4.     args: ["-c", "while true; do echo hello from cnt02; sleep 10;done"]
  5.     resources:
  6.       requests:
  7.         memory: "100Mi"
  8.         cpu: "100m"
复制代码


这个容器创建出来会有什么问题呢?

其实对于正常的环境来说没有什么问题,但是对于资源型 pod 来说,如果有的容器没有设定 limit 限制,资源会被其他的 pod 抢占走,可能会造成容器应用失败的情况。可以通过 limitrange 策略来去匹配,让 pod 自动设定,前提是要提前配置好limitrange 规则。





https://blog.51cto.com/mingongge/3151856


没找到任何评论,期待你打破沉寂

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

关闭

推荐上一条 /2 下一条