TIPS之 Kubernetes Request 与 Limit 使用设置经验

Kubernetes Request 与 Limit 使用设置的经验

Posted by 董江 on Tuesday, August 21, 2018

Request 与 Limit 使用设置的经验

如何为容器配置 Request 与 Limit? 这是一个即常见又棘手的问题,这个根据服务类型,需求与场景的不同而不同,没有固定的答案,这里结合生产经验总结下经验,可以作为参考。

所有容器都应该设置 request

request 的值并不是指给容器实际分配的资源大小,它仅仅是给调度器看的,调度器会 “观察” 每个节点可以用于分配的资源有多少,也知道每个节点已经被分配了多少资源。被分配资源的大小就是节点上所有 Pod 中定义的容器 request 之和,它可以计算出节点剩余多少资源可以被分配(可分配资源减去已分配的 request 之和)。如果发现节点剩余可分配资源大小比当前要被调度的 Pod 的 reuqest 还小,那么就不会考虑调度到这个节点,反之,才可能调度。所以,如果不配置 request,那么调度器就不能知道节点大概被分配了多少资源出去,调度器得不到准确信息,也就无法做出合理的调度决策,很容易造成调度不合理,有些节点可能很闲,而有些节点可能很忙,甚至 NotReady。

所以,建议是给所有容器都设置 request,让调度器感知节点有多少资源被分配了,以便做出合理的调度决策,让集群节点的资源能够被合理的分配使用,避免陷入资源分配不均导致一些意外发生。

CPU request 与 limit 的一般性经验

老是忘记设置怎么办?

有时候我们会忘记给部分容器设置 request 与 limit,其实我们可以使用 LimitRange 来设置 namespace 的默认 request 与 limit 值,同时它也可以用来限制最小和最大的 request 与 limit。 示例:

apiVersion: v1
kind: LimitRange
metadata:
  name: mem-limit-range
  namespace: test
spec:
  limits:
  - default:
      memory: 512Mi
	  cpu: 500m
    defaultRequest:
      memory: 256Mi
	  cpu: 100m
    type: Container

重要的线上应用改如何设置

节点资源不足时,会触发自动驱逐,将一些低优先级的 Pod 删除掉以释放资源让节点自愈。没有设置 request,limit 的 Pod 优先级最低,容易被驱逐;request 不等于 limit 的其次; request 等于 limit 的 Pod 优先级较高,不容易被驱逐。即被驱逐的优先级:BestEffort > Burstable > Guaranteed

所以:如果是重要的线上应用,不希望在节点故障时被驱逐导致线上业务受影响,就建议将 request 和 limit 设成一致; 测试环境、验证环境: 设置 request < limit

怎样设置才能提高资源利用率?

如果给给你的应用设置较高的 request 值,而实际占用资源长期远小于它的 request 值,导致节点整体的资源利用率较低。当然这对时延非常敏感的业务除外,因为敏感的业务本身不期望节点利用率过高,影响网络包收发速度。所以对一些非核心,并且资源不长期占用的应用,可以适当减少 request 以提高资源利用率。

如果你的服务支持水平扩容,单副本的 request 值一般可以设置到不大于 1 核,CPU 密集型应用除外。比如 coredns,设置到 0.1 核就可以,即 100m。

尽量避免使用过大的 request 与 limit

如果你的服务使用单副本或者少量副本,给很大的 request 与 limit,让它分配到足够多的资源来支撑业务,那么某个副本故障对业务带来的影响可能就比较大,并且由于 request 较大,当集群内资源分配比较碎片化,如果这个 Pod 所在节点挂了,其它节点又没有一个有足够的剩余可分配资源能够满足这个 Pod 的 request 时,这个 Pod 就无法实现漂移,也就不能自愈,加重对业务的影响。

相反, 建议尽量减小 request 与 limit,通过增加副本的方式来对你的服务支撑能力进行水平扩容,让你的系统更加灵活可靠。

避免测试 namespace 消耗过多资源影响生产业务

若生产集群有用于测试的 namespace,如果不加以限制,可能导致集群负载过高,从而影响生产业务。可以使用 ResourceQuota 来限制测试 namespace 的 request 与 limit 的总大小。 示例:

apiVersion: v1
kind: ResourceQuota
metadata:
  name: quota-test
  namespace: test
spec:
  hard:
    requests.cpu: "1"
    requests.memory: 1Gi
    limits.cpu: "2"
    limits.memory: 2Gi

Kubernetes标准组件 request limit限制

重要核心组件,requestlimit 需要设置值相同,此类 Pod 优先级较高,在节点故障时不易被驱逐导致线上业务受到影响

非正式环境:Test环境Dev环境Pre预发环境

type name requests limit Note
cpu memory cpu memory
Deployment calico-kube-controllers - - - -
calico-typha - - - -
coredns 100m 128Mi - -
kube-dns-autoscaler 20m 10Mi - - 控制指令有关
kube-state-metrics 1 2Gi - - 与收集metrics指标 和 实例数 有关,测试pod跟多
metrics-server 100m 200Mi - - 与Node和Pod数有关
DaemonSet calico-node 250m - - -
kube-proxy 100m - - -
Static Pod kube-apiserver 250m(default) - - - 内存型服务
kube-controller-manager 200m(default) - - -
etcd - - - - --auto-compaction-retention=8h #自动压缩时间窗口 --auto-compaction-mode=revision #自动压缩模式revision,默认将last revision之前版本都压缩 --quota-backend-bytes=8589934592 # DB size调整为8GB
kube-scheduler 100m(default) - - -

正式环境: Prod环境

和集群规模,Pod数,Get/List 请求有关,社区一般设置:以控制面 3* 32Core 64G 500G SSD, 数据面: 200 * Node, 5000 Pod为例子

静态Pod 单独亲占master, 只需要限制避免各组件耗尽master节点资源

type name requests limit Note
cpu memory cpu memory
Deployment calico-kube-controllers - - - -
calico-typha - - - -
coredns 2m 4Gi 2 4Gi 核心
kube-dns-autoscaler 20m 10Mi - -
kube-state-metrics 1 2Gi 4 8Gi
metrics-server 100m 200Mi 4 8Gi
DaemonSet calico-node 250m - - -
kube-proxy 100m - - -
Static Pod kube-apiserver 8 16Gi - - 核心
kube-controller-manager 4 - 4 - 核心
etcd - - - - --auto-compaction-retention=1h #自动压缩时间窗口 --auto-compaction-mode=revision #自动压缩模式revision,默认将last revision之前版本都压缩 --quota-backend-bytes=8589934592 # DB size调整为8GB
kube-scheduler 4 - 4 - 核心

PS 信息来源

https://artifacthub.io/ helm标准部署组件 https://github.com/kubernetes/kops/tree/master/nodeup/pkg/model/tests/golden/minimal Kops部署Default配置

「如果这篇文章对你有用,请随意打赏」

Kubeservice博客

如果这篇文章对你有用,请随意打赏

使用微信扫描二维码完成支付