Kubeservice博客

是非审之于己,毁誉听之于人,得失安之于数

TIPS之 Kubernetes Pod 均匀分布在各节点上

Kubernetes Pod 均匀分布在各节点上

Kubernetes Pod 均匀分布在各节点上 背景 线上单个deployment副本数有100个, Node节点有十几个。问题是:有部分节点部署了30+个pod副本数,

TIPS之 Kubernetes CPUSet Pod 在各节点上numa分布不均

Kubernetes CPUSet Pod 在各节点上numa分布不均

Kubernetes CPUSet Pod 在各节点上numa分布不均 背景 在 CPU Manager 管理的CPU亲和过程中,发现有部分机器numa空闲, 但是有部分机器Pod在 binding过程中,一

TIPS之 Kubernetes 自动清理 Failed/Successed Pod

Kubernetes 自动清理 Failed/Successed Pod

Kubernetes 自动清理 Failed/Successed Pod 背景 Pod 部署应为某些原因,Pod 部署失败Failed 或者 部署完成Successed等历史pod 不会被删除,导致 kubectl get pod -A 大量异常p

TIPS之 Kubernetes cgroup driver 变更方式

Kubernetes cgroup driver 变更方式

Kubernetes cgroup driver 变更方式 现象 failed to create kubelet: misconfiguration: kubelet cgroup driver: "cgroupfs" is different from docker cgroup driver: "systemd" 文件驱动默认由systemd改成cgroupfs, 而我们安装的docker使用的文件驱动是

技术方案之 对 Kubernetes Pod进本地磁盘(local,disk,LVM) 进行流量控制

对 Kubernetes Pod进本地磁盘(local,disk,LVM) 进行流量控制

对 Kubernetes Pod进本地磁盘(local,disk,LVM) 进行流量控制 一. 继承上一章节 Kubernetes Pod进程网络带宽 流量控制 混合云场景业务Pod直接相互干扰

TIPS之 Kubernetes Node 网络故障后 Pod Ready状态 flase 问题排查

Kubernetes Node 网络故障后 Pod Ready状态 flase 问题排查

Kubernetes Node 网络故障后 Pod Ready状态 flase 问题排查 现象 网络故障,Kubernetes Node 恢复,但是 Node 节点上的 Pod的状态是 running, 但是 Conditions:Ready 状态是 False status: conditions: - lastProbeTime: null lastTransitionTime: "2021-11-18T12:11:20Z"

性能调优之 Kubenetes Pod 部署&滚动升级调优

Kubenetes Pod 部署&滚动升级调优

Kubenetes Pod 部署&滚动升级 调优 Pod 在滚动升级部署中部署pod个数到可用指标更新速率 是衡量 Kubenetes 调度能力最核心指标 举个例子: rollingUpdate: maxSurge: 25% #每个滚动更新的实

技术调优之 大规模 Kubernetes 集群调优设置

大规模 Kubernetes 集群调优设置

大规模 Kubernetes 集群调优设置 0. 前置条件 0.1 网段划分 首先集群网段划分,支持5000+ Node, 10000+ Service 和 100000+ Pod, 因此需要: 1个B段IP 用于Node划分 3个B段I