成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

kubelet 配置資源預留的姿勢

運維 系統運維
本文的操作環境為 Kubernetes v1.22.1 版本,使用 Containerd 的容器運行時,Containerd 和 Kubelet 采用的 cgroup 驅動為 systemd。

[[422195]]

Kubernetes 的節點可以按照節點的資源容量進行調度,默認情況下 Pod 能夠使用節點全部可用容量。這樣就會造成一個問題,因為節點自己通常運行了不少驅動 OS 和 Kubernetes 的系統守護進程。除非為這些系統守護進程留出資源,否則它們將與 Pod 爭奪資源并導致節點資源短缺問題。

當我們在線上使用 Kubernetes 集群的時候,如果沒有對節點配置正確的資源預留,我們可以考慮一個場景,由于某個應用無限制的使用節點的 CPU 資源,導致節點上 CPU 使用持續100%運行,而且壓榨到了 kubelet 組件的 CPU 使用,這樣就會導致 kubelet 和 apiserver 的心跳出問題,節點就會出現 Not Ready 狀況了。默認情況下節點 Not Ready 過后,5分鐘后會驅逐應用到其他節點,當這個應用跑到其他節點上的時候同樣100%的使用 CPU,是不是也會把這個節點搞掛掉,同樣的情況繼續下去,也就導致了整個集群的雪崩,集群內的節點一個一個的 Not Ready 了,后果是非常嚴重的,或多或少的人遇到過 Kubernetes 集群雪崩的情況,這個問題也是面試的時候鏡像詢問的問題。

要解決這個問題就需要為 Kubernetes 集群配置資源預留,kubelet 暴露了一個名為 Node Allocatable 的特性,有助于為系統守護進程預留計算資源,Kubernetes 也是推薦集群管理員按照每個節點上的工作負載來配置 Node Allocatable。

本文的操作環境為 Kubernetes v1.22.1 版本,使用 Containerd 的容器運行時,Containerd 和 Kubelet 采用的 cgroup 驅動為 systemd。

Node Allocatable

Kubernetes 節點上的 Allocatable 被定義為 Pod 可用計算資源量,調度器不會超額申請 Allocatable,目前支持 CPU, memory 和 ephemeral-storage 這幾個參數。

我們可以通過 kubectl describe node 命令查看節點可分配資源的數據:

  1. ➜  ~ kubectl describe node node2 
  2. ...... 
  3. Capacity: 
  4.  cpu:                4 
  5.  ephemeral-storage:  36678148Ki 
  6.  hugepages-1Gi:      0 
  7.  hugepages-2Mi:      0 
  8.  memory:             7990056Ki 
  9.  pods:               110 
  10. Allocatable: 
  11.  cpu:                4 
  12.  ephemeral-storage:  33802581141 
  13.  hugepages-1Gi:      0 
  14.  hugepages-2Mi:      0 
  15.  memory:             7887656Ki 
  16.  pods:               110 
  17. ...... 

可以看到其中有 Capacity 與 Allocatable 兩項內容,其中的 Allocatable 就是節點可被分配的資源,我們這里沒有配置資源預留,所以默認情況下 Capacity 與 Allocatable 的值基本上是一致的。下圖顯示了可分配資源和資源預留之間的關系:

Node Allocatable

  • Kubelet Node Allocatable 用來為 Kube 組件和 System 進程預留資源,從而保證當節點出現滿負荷時也能保證 Kube 和 System 進程有足夠的資源。
  • 目前支持 cpu, memory, ephemeral-storage 三種資源預留。
  • Node Capacity 是節點的所有硬件資源,kube-reserved 是給 kube 組件預留的資源,system-reserved 是給系統進程預留的資源,eviction-threshold 是 kubelet 驅逐的閾值設定,allocatable 才是真正調度器調度 Pod 時的參考值(保證節點上所有 Pods 的 request 資源不超過 Allocatable)。

節點可分配資源的計算方式為:

  1. Node Allocatable Resource = Node Capacity - Kube-reserved - system-reserved - eviction-threshold 

調度到某個節點上的 Pod 的 requests 總和不能超過該節點的 allocatable。

配置資源預留

比如我們現在需要為系統預留一定的資源,我們可以使用如下的幾個 kubelet 參數來進行配置:

  1. --enforce-node-allocatable=pods 
  2. --kube-reserved=memory=... 
  3. --system-reserved=memory=... 
  4. --eviction-hard=... 

這里我們暫時不設置對應的 cgroup,比如我們這里先只對 node2 節點添加資源預留,我們可以直接修改 /var/lib/kubelet/config.yaml 文件來動態配置 kubelet,添加如下所示的資源預留配置:

  1. apiVersion: kubelet.config.k8s.io/v1beta1 
  2. ...... 
  3. enforceNodeAllocatable: 
  4. - pods 
  5. kubeReserved:  # 配置 kube 資源預留 
  6.   cpu: 500m 
  7.   memory: 1Gi 
  8.   ephemeral-storage: 1Gi 
  9. systemReserved:  # 配置系統資源預留 
  10.   memory: 1Gi 
  11. evictionHard:  # 配置硬驅逐閾值 
  12.   memory.available: "300Mi" 
  13.   nodefs.available: "10%" 

修改完成后,重啟 kubelet,啟動完成后重新對比 Capacity 及 Allocatable 的值:

  1. ➜  ~ kubectl describe node node2 
  2. ...... 
  3. Capacity: 
  4.   cpu:                4 
  5.   ephemeral-storage:  36678148Ki 
  6.   hugepages-1Gi:      0 
  7.   hugepages-2Mi:      0 
  8.   memory:             7990056Ki 
  9.   pods:               110 
  10. Allocatable: 
  11.   cpu:                3500m 
  12.   ephemeral-storage:  32728839317 
  13.   hugepages-1Gi:      0 
  14.   hugepages-2Mi:      0 
  15.   memory:             5585704Ki 
  16.   pods:               110 

仔細對比可以發現其中的 Allocatable的值恰好是 Capacity 減去上面我們配置的預留資源的值:

  1. allocatale = capacity - kube_reserved - system_reserved - eviction_hard 
  2. 5585704Ki = 7990056Ki - 1*1024*1024Ki - 1*1024*1024Ki - 300*1024Ki 

再通過查看 kubepods.slice(systemd 驅動是以 .slice 結尾)cgroup 中對節點上所有 Pod 內存的限制,該值決定了 Node 上所有的 Pod 能使用的資源上限:

  1. ➜  ~ cat /sys/fs/cgroup/memory/kubepods.slice/memory.limit_in_bytes 
  2. 6034333696 

得到的 Pod 資源使用上限為:

  1. 6034333696Bytes = 5892904Ki = Allocatable(5585704Ki) + eviction_hard(300*1024Ki) 

也可以通過計算驗證我們的配置是正確的:

  1. kubepods.slice/memory.limit_in_bytes = capacity - kube_reserved - system_reserved 

Eviction 與 OOM

1、eviction 是指 kubelet 對該節點上的 Pod 進行驅逐,OOM 是指 cgroup 對進程進行 kill

2、kubelet 對 Pod 進行驅逐時,是根據 --eviction-hard 參數,比如該參數如果設置了 memory.available<20%,那么當主機的內存使用率達到80%時,kubelet 便會對Pod進行驅逐。但是,--eviction-hard=memory.available<20% 不會對 /sys/fs/cgroup/memory/kubepods.slice/memory.limit_in_bytes 的值產生影響,因為 kubepods.slice/memory.limit_in_bytes = capacity - kube-reserved - system-reserved,換句話說,Pod 的內存使用量總和是可以超過80%的,且不會被 OOM-kill,只會被 eviction。

3、kubernetes 對 Pod 的驅逐機制如下(其實就是 QoS 章節的定義):

  • 首先驅逐沒有設置資源限制的 Pod
  • 然后驅逐資源上限和資源下限不一樣的 Pod
  • 最后驅逐資源上限等資源下限的Pod

可分配約束

前面我們在配置資源預留的時候其中有一個 enforceNodeAllocatable 配置項(--enforce-node-allocatable),該配置項的幫助信息為:

  1. --enforce-node-allocatable strings                         A comma separated list of levels of node allocatable enforcement to be enforced by kubelet. Acceptable options are 'none', 'pods', 'system-reserved', and 'kube-reserved'. If the latter two options are specified, '--system-reserved-cgroup' and '--kube-reserved-cgroup' must also be set, respectively. If 'none' is specified, no additional options should be set. See https://kubernetes.io/docs/tasks/administer-cluster/reserve-compute-resources/ for more details. (default [pods]) (DEPRECATED: This parameter should be set via the config file specified by the Kubelet's --config flag. See https://kubernetes.io/docs/tasks/administer-cluster/kubelet-config-file/ for more information.) 

kubelet 默認對 Pod 執行 Allocatable 可分配約束,如果所有 Pod 的總用量超過了 Allocatable,那么驅逐 Pod 的措施將被執行,我們可以可通過設置 kubelet --enforce-node-allocatable 標志值為 pods 控制這個措施。

此外我們還可以通過該標志來同時指定 kube-reserved 和 system-reserved 值,可以讓 kubelet 強制實施 kube-reserved 和 system-reserved 約束,不過需要注意,如果配置了 kube-reserved 或者 system-reserved 約束,那么需要對應設置 --kube-reserved-cgroup 或者 --system-reserved-cgroup 參數。

如果設置了對應的 --system-reserved-cgroup 和 --kube-reserved-cgroup 參數,Pod 能實際使用的資源上限是不會改變,但系統進程與 kube 進程也會受到資源上限的限制,如果系統進程超過了預留資源,那么系統進程會被 cgroup 殺掉。但是如果不設這兩個參數,那么系統進程就可以使用超過預留的資源上限。

所以如果要為系統預留和 kube 預留配置 cgroup,則需要非常小心,如果執行了 kube-reserved 約束,那么 kubelet 就不能出現突發負載用光所有可用資源,不然就會被殺掉。system-reserved 可以用于為諸如 sshd、udev 等系統守護進程爭取資源預留,但是如果執行 system-reserved 約束,那么可能因為某些原因導致節點上的關鍵系統服務 CPU 資源短缺或因為內存不足而被終止,所以如果不是自己非常清楚如何配置,最好別配置 cgroup 約束,如果需要自行配置,可以參考第一期的資源預留文檔進行相關操作。

因此,我們強烈建議用戶使用 enforce-node-allocatable 默認配置的 pods 即可,并為系統和 kube 進程預留出適當的資源,以保持整體節點的可靠性,不需要進行 cgroup 約束,除非操作人員對系統非常了解。

 

責任編輯:姜華 來源: k8s技術圈
相關推薦

2010-06-12 14:02:59

RSVP資源預留協議

2010-07-05 10:57:52

RSVP資源預留協議

2010-09-02 16:59:35

資源預留協議

2010-06-12 14:07:44

資源預留協議RSVP

2010-06-17 17:51:12

資源預留協議

2019-01-02 10:49:54

Tomcat內存HotSpot VM

2009-07-10 21:09:02

綜合布線隱蔽工程

2024-07-01 08:00:00

2021-08-30 09:44:47

Kubelet機制驅逐

2018-01-11 15:31:39

命令Linux關機

2016-05-09 10:41:03

算法分析開發

2017-02-23 15:37:44

OptionObject容器

2016-09-12 15:48:06

Nginxvarnish緩存

2017-07-10 13:09:45

前端Flexbox

2017-03-16 11:39:33

Openstack源碼姿勢

2015-09-25 10:58:20

2023-01-30 07:41:43

2023-01-29 09:06:24

微服務劃分關聯

2020-04-13 15:25:01

MySQL數據庫模糊搜索

2025-06-11 09:28:22

點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: av福利网站 | 国产超碰人人爽人人做人人爱 | 伊人网综合在线观看 | 国产精品成人一区二区三区 | 成人久久视频 | 狠狠入ady亚洲精品经典电影 | 成人精品| 日韩资源 | 九九综合 | 国产精品久久久久久久久免费相片 | 日韩电影免费在线观看中文字幕 | 日韩中文在线视频 | 不卡一区 | 视频1区| 亚洲美女在线视频 | 免费激情网站 | 五月天国产| 日韩成人精品在线 | 91在线精品秘密一区二区 | 精品国偷自产在线 | 亚洲91精品| 亚洲欧美国产精品久久 | 激情av在线 | 一区二区三区在线观看视频 | 91在线视频一区 | 都市激情亚洲 | 国产婷婷色综合av蜜臀av | 日韩在线视频免费观看 | 中文字幕免费在线 | 久久久国产网站 | 亚洲日本欧美日韩高观看 | 91av在线影院| 特级毛片爽www免费版 | 中文在线播放 | 亚洲欧美日韩精品久久亚洲区 | 91人人爽 | 国产乱码精品一区二区三区中文 | 亚洲欧美综合精品另类天天更新 | 精精国产xxxx视频在线播放7 | 国产91久久精品一区二区 | 成人高清在线视频 |