成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

我花了10個小時,寫出了這篇K8S架構解析

原創
云計算
互聯網技術飛速發展的今天,為了承載請求的高并發和業務的多樣性,微服務的架構成了各個公司的標配。

【51CTO.com原創稿件】互聯網技術飛速發展的今天,為了承載請求的高并發和業務的多樣性,微服務的架構成了各個公司的標配。

[[282303]] 

圖片來自 Pexels

每個微服務通過 Docker 進行發布,隨著業務的發展,系統中遍布著各種各樣的容器。于是,容器的資源調度,部署運行,擴容縮容就是我們要面臨的問題。

基于 Kubernetes 作為容器集群的管理平臺被廣泛應用,今天我們一起來看看 Kubernetes 的架構中有那些常用的組件以及運行原理。

Kubernetes 架構概述

Kubernetes 是用來管理容器集群的平臺。既然是管理集群,那么就存在被管理節點,針對每個 Kubernetes 集群都由一個 Master 負責管理和控制集群節點。

我們通過 Master 對每個節點 Node 發送命令。簡單來說,Master 就是管理者,Node 就是被管理者。

Node 可以是一臺機器或者一臺虛擬機。在 Node 上面可以運行多個 Pod,Pod 是 Kubernetes 管理的最小單位,同時每個 Pod 可以包含多個容器(Docker)。

通過下面的 Kubernetes 架構簡圖可以看到 Master 和 Node 之間的關系:

 

Kubernetes 架構簡圖

通常我們都是通過 kubectl 對 Kubernetes 下命令的,它通過 APIServer 去調用各個進程來完成對 Node 的部署和控制。

APIServer 的核心功能是對核心對象(例如:Pod,Service,RC)的增刪改查操作,同時也是集群內模塊之間數據交換的樞紐。

它包括了常用的 API,訪問(權限)控制,注冊,信息存儲(etcd)等功能。在它的下面我們可以看到 Scheduler,它將待調度的 Pod 綁定到 Node 上,并將綁定信息寫入 etcd 中。

etcd 包含在 APIServer 中,用來存儲資源信息。接下來就是 Controller Manager 了,如果說 Kubernetes 是一個自動化運行的系統,那么就需要有一套管理規則來控制這套系統。

Controller Manager 就是這個管理者,或者說是控制者。它包括 8 個 Controller,分別對應著副本,節點,資源,命名空間,服務等等。

緊接著,Scheduler 會把 Pod 調度到 Node 上,調度完以后就由 kubelet 來管理 Node 了。

kubelet 用于處理 Master 下發到 Node 的任務(即 Scheduler 的調度任務),同時管理 Pod 及 Pod 中的容器。

在完成資源調度以后,kubelet 進程也會在 APIServer 上注冊 Node 信息,定期向 Master 匯報 Node 信息,并通過 cAdvisor 監控容器和節點資源。

由于,微服務的部署都是分布式的,所以對應的 Pod 以及容器的部署也是。為了能夠方便地找到這些 Pod 或者容器,引入了 Service(kube-proxy)進程,它來負責反向代理和負載均衡的實施。

上面就是 Kubernetes 架構的簡易說明,涉及到了一些核心概念以及簡單的信息流動。

將一些功能收錄到了 APIServer 中,這個簡圖比官網的圖顯得簡單一些,主要是方便大家記憶。

后面我們會用一個簡單的例子,帶大家把 Kubernetes 的概念的由來做深入的了解。

從一個例子開始

假設使用 Kubernetes 部署 Tomcat 和 MySQL 服務到兩個 Node 上面。其中 Tomcat 服務生成兩個實例也就是生成兩個 Pod,用來對其做水平擴展。

MySQL 只部署一個實例,也就是一個 Pod。可以通過外網訪問 Tomcat,而 Tomcat 可以在內網訪問 MySQL。

 

例子示意圖

這里我們假設 Kubernetes 和 Docker 的安裝都已經完成,并且鏡像文件都已經準備好了。重點看 Kubernetes 如何部署和管理容器。

kubectl 和 APIServer

既然我們要完成上面的例子,接下來就要部署兩個應用。

首先,根據要部署的應用建立 Replication Controller(RC)。RC 是用來聲明應用副本的個數,也就是 Pod 的個數。

按照上面的例子,Tomcat 的 RC 就是 2,MySQL 的 RC 就是 1。

由于 kubectl 作為用戶接口向 Kubernetes 下發指令,那么指令是通過“.yaml”的配置文件編寫的。

定義 mysql-rc.yaml 的配置文件來描述 MySQL 的 RC:

  1. apiVersion: V1 
  2. kind: ReplicationController 
  3. metadata: 
  4.  name: mysql#RC的名稱,全局唯一 
  5. spec: 
  6.  replicas:1 #Pod 副本的期待數量 
  7. selector : 
  8. app: mysql 
  9.  template: #Pod模版,用這個模版來創建Pod 
  10. metadata: 
  11.  labels: 
  12. app:mysql#Pod副本的標簽 
  13. spec: 
  14.  containers:#容器定義部分 
  15.      -name:mysql 
  16. Image:mysql#容器對應的DockerImage 
  17.       Ports: 
  18.       -containerPort:3306#容器應用監聽的端口號 
  19.       Env:#注入容器的環境變量 
  20.       -name:MYSQL_ROOT_PASSWORD 
  21.       Value:”123456” 

從上面的配置文件可以看出,需要對這個 RC 定義一個名字,以及期望的副本數,以及容器中的鏡像文件。然后通過 kubectl 作為客戶端的 cli 工具,執行這個配置文件。

 

通過 kubectl 執行 RC 配置文件

執行了上面的命令以后,Kubernetes 會幫助我們部署副本 MySQL 的 Pod 到 Node。

此時先不著急看結果,回到最開始的架構圖,可以看到 kubectl 會向 Master 中的 APIServer 發起命令,看看 APIServer 的結構和信息的傳遞吧。

 

Kubernetes API Server 通過一個名為 kube-apiserver 的進程提供服務,該進程運行在 Master 上。

可以通過 Master 的 8080 端口訪問 kube-apiserver 進程,它提供 REST 服務。

因此可以通過命令行工具 kubectl 來與 Kubernetes APIServer 交互,它們之間的接口是 RESTful API。

APIServer 的架構從上到下分為四層:

  • API 層:主要以 REST 方式提供各種 API 接口,針對 Kubernetes 資源對象的 CRUD 和 Watch 等主要 API,還有健康檢查、UI、日志、性能指標等運維監控相關的 API。
  • 訪問控制層:負責身份鑒權,核準用戶對資源的訪問權限,設置訪問邏輯(Admission Control)。
  • 注冊表層:選擇要訪問的資源對象。PS:Kubernetes 把所有資源對象都保存在注冊表(Registry)中,例如:Pod,Service,Deployment 等等。
  • etcd 數據庫:保存創建副本的信息。用來持久化 Kubernetes 資源對象的 Key-Value 數據庫。

 

APIServer 分層架構圖

當 kubectl 用 Create 命令建立 Pod 時,是通過 APIServer 中的 API 層調用對應的 RESTAPI 方法。

之后會進入權限控制層,通過 Authentication 獲取調用者身份,Authorization 獲取權限信息。

AdmissionControl 中可配置權限認證插件,通過插件來檢查請求約束。例如:啟動容器之前需要下載鏡像,或者檢查具備某命名空間的資源。

還記得 mysql-rc.yaml 中配置需要生成的 Pod 的個數為 1。到了 Registry 層會從 CoreRegistry 資源中取出 1 個 Pod 作為要創建的 Kubernetes 資源對象。

然后將 Node,Pod 和 Container 信息保存在 etcd 中去。這里的 etcd 可以是一個集群,由于里面保存集群中各個 Node/Pod/Container 的信息,所以必要時需要備份,或者保證其可靠性。

Controller Manager,Scheduler 和 kubelet

前面通過 kubectl 根據配置文件,向 APIServer 發送命令,在 Node 上面建立 Pod 和 Container。

在 APIServer,經過 API 調用,權限控制,調用資源和存儲資源的過程。實際上還沒有真正開始部署應用。

這里需要 Controller Manager,Scheduler 和 kubelet 的協助才能完成整個部署過程。

在介紹他們協同工作之前,要介紹一下在 Kubernetes 中的監聽接口。從上面的操作知道,所有部署的信息都會寫到 etcd 中保存。

實際上 etcd 在存儲部署信息的時候,會發送 Create 事件給 APIServer,而 APIServer 會通過監聽(Watch)etcd 發過來的事件。其他組件也會監聽(Watch)APIServer 發出來的事件。

 

Kubernetes 就是用這種 List-Watch 的機制保持數據同步的,如上圖:

  • 這里有三個 List-Watch,分別是 kube-controller-manager(運行在Master),kube-scheduler(運行在 Master),kublete(運行在 Node)。他們在進程已啟動就會監聽(Watch)APIServer 發出來的事件。
  • kubectl 通過命令行,在 APIServer 上建立一個 Pod 副本。
  • 這個部署請求被記錄到 etcd 中,存儲起來。
  • 當 etcd 接受創建 Pod 信息以后,會發送一個 Create 事件給 APIServer。
  • 由于 Kubecontrollermanager 一直在監聽 APIServer 中的事件。此時 APIServer 接受到了 Create 事件,又會發送給 Kubecontrollermanager。
  • Kubecontrollermanager 在接到 Create 事件以后,調用其中的 Replication Controller 來保證 Node 上面需要創建的副本數量。

上面的例子 MySQL 應用是 1 個副本,Tomcat 應用是兩個副本。一旦副本數量少于 RC 中定義的數量,Replication Controller 會自動創建副本。總之它是保證副本數量的 Controller。PS:擴容縮容的擔當。

  • 在 Controller Manager 創建 Pod 副本以后,APIServer 會在 etcd 中記錄這個 Pod 的詳細信息。例如在 Pod 的副本數,Container 的內容是什么。
  • 同樣的 etcd 會將創建 Pod 的信息通過事件發送給 APIServer。
  • 由于 Scheduler 在監聽(Watch)APIServer,并且它在系統中起到了“承上啟下”的作用,“承上”是指它負責接收創建的 Pod 事件,為其安排 Node;“啟下”是指安置工作完成后,Node 上的 kubelet 服務進程接管后繼工作,負責 Pod 生命周期中的“下半生”。

換句話說,Scheduler 的作用是將待調度的 Pod 按照調度算法和策略綁定到集群中 Node 上,并將綁定信息寫入 etcd 中。

  • Scheduler 調度完畢以后會更新 Pod 的信息,此時的信息更加豐富了。除了知道 Pod 的副本數量,副本內容。還知道部署到哪個 Node 上面了。
  • 同樣,將上面的 Pod 信息更新到 etcd 中,保存起來。
  • etcd 將更新成功的事件發送給 APIServer。
  • 注意這里的 kubelet 是在 Node 上面運行的進程,它也通過 List-Watch 的方式監聽(Watch)APIServer 發送的 Pod 更新的事件。實際上,在第 9 步的時候創建 Pod 的工作就已經完成了。

為什么 kubelete 還要一直監聽呢?原因很簡單,假設這個時候 kubectl 發命令,需要把原來的 MySQL 的 1 個 RC 副本擴充成 2 個。那么這個流程又會觸發一遍。

作為 Node 的管理者 kubelet 也會根據最新的 Pod 的部署情況調整 Node 端的資源。

又或者 MySQL 應用的 RC 個數沒有發生變化,但是其中的鏡像文件升級了,kubelet 也會自動獲取最新的鏡像文件并且加載。

通過上面 List-Watch 的介紹大家發現了,除了之前引入的 kubectl 和 APIServer 以外又引入了 Controller Manager,Scheduler 和 kubelet。

這里給大家介紹一下他們的作用和原理:

聚焦 Scheduler,Controller Manager,kubelet 

Controller Manager

Kubernetes 需要管理集群中的不同資源,所以針對不同的資源要建立不同的 Controller。

每個 Controller 通過監聽機制獲取 APIServer 中的事件(消息),它們通過 API Server 提供的(List-Watch)接口監控集群中的資源,并且調整資源的狀態。

可以把它想象成一個盡職的管理者,隨時管理和調整資源。比如 MySQL 所在的 Node 意外宕機了,Controller Manager 中的 Node Controller 會及時發現故障,并執行修復流程。

在部署了成百上千微服務的系統中,這個功能極大地協助了運維人員。從此可以看出,Controller Manager 是 Kubernetes 資源的管理者,是運維自動化的核心。

它分為 8 個 Controller,上面我們介紹了 Replication Controller,這里我們把其他幾個都列出來,就不展開描述了。

 

Controller Manager 中不同的 Controller 負責對不同資源的監控和管理

Scheduler 與 kubelet

Scheduler 的作用是,將待調度的 Pod 按照算法和策略綁定到 Node 上,同時將信息保存在 etcd 中。

如果把 Scheduler 比作調度室,那么這三件事就是它需要關注的,待調度的 Pod、可用的 Node,調度算法和策略。

簡單地說,就是通過調度算法/策略把 Pod 放到合適的 Node 中去。此時 Node 上的 kubelet 通過 APIServer 監聽到 Scheduler 產生的 Pod 綁定事件,然后通過 Pod 的描述裝載鏡像文件,并且啟動容器。

也就是說 Scheduler 負責思考,Pod 放在哪個 Node,然后將決策告訴 kubelet,kubelet 完成 Pod 在 Node 的加載工作。

說白了,Scheduler 是 boss,kubelet 是干活的工人,他們都通過 APIServer 進行信息交換。

 

Scheduler 與 kubelet 協同工作圖

Service 和 kubelet

經歷上面一系列的過程,終于將 Pod 和容器部署到 Node 上了。

 

MySQL 部署成功

作為部署在 Kubernetes 中,Pod 如何訪問其他的 Pod 呢?答案是通過 Kubernetes 的 Service 機制。

在 Kubernetes 中的 Service 定義了一個服務的訪問入口地址(IP+Port)。Pod 中的應用通過這個地址訪問一個或者一組 Pod 副本。

Service 與后端 Pod 副本集群之間是通過 Label Selector 來實現連接的。Service 所訪問的這一組 Pod 都會有同樣的 Label,通過這樣的方法知道這些 Pod 屬于同一個組。

 

Pod 通過 Service 訪問其他 Pod

寫 MySQL 服務的配置文件(mysql-svc.yaml)如下:

  1. apiVersion : v1 
  2. kind: Service #說明創建資源對象的類型是Service 
  3. metadata: 
  4.  name: mysql#Service全局唯一名稱 
  5. spec: 
  6. prots: 
  7. -port: 3306#Service的服務端口號 
  8.  selector:#Service對應的Pod標簽,用來給Pod分類 
  9.    app: mysql 

按照慣例運行 kubectl,創建 Service:

 

再用 getsvc 命令檢查 Service 信息:

 

這里的 Cluster-IP 169.169.253.143 是由 Kubernetes 自動分配的。當一個 Pod 需要訪問其他的 Pod 的時候就需要通過 Service 的 Cluster-IP 和 Port。

也就是說 Cluster-IP 和 Port 是 Kubernetes 集群的內部地址,是提供給集群內的 Pod 之間訪問使用的,外部系統是無法通過這個 Cluster-IP 來訪問 Kubernetes 中的應用的。

上面提到的 Service 只是一個概念,而真正將 Service 落實的是 kube-proxy。

只有理解了 kube-proxy 的原理和機制,我們才能真正理解 Service 背后的實現邏輯。

在 Kubernetes 集群的每個 Node 上都會運行一個 kube-proxy 服務進程,我們可以把這個進程看作 Service 的負載均衡器,其核心功能是將到 Service 的請求轉發到后端的多個 Pod 上。

此外,Service 的 Cluster-IP 與 NodePort 是 kube-proxy 服務通過 iptables 的 NAT 轉換實現的。kube-proxy 在運行過程中動態創建與 Service 相關的 iptables 規則。

由于 iptables 機制針對的是本地的 kube-proxy 端口,所以在每個 Node 上都要運行 kube-proxy 組件。

因此在 Kubernetes 集群內部,可以在任意 Node 上發起對 Service 的訪問請求。

 

集群內部通過 kube-proxy(Service)訪問其他 Pod

正如 MySQL 服務,可以被 Kubernetes 內部的 Tomcat 調用,那么 Tomcat 如何被 Kubernetes 外部調用?

先生成配置文件,myweb-rc.yaml 看看:

  1. apiVersion: V1 
  2. kind: ReplicationController 
  3. metadata: 
  4.  name: myweb#RC的名稱,全局唯一 
  5. spec: 
  6.  replicas:2#Pod 副本的期待數量,這里的數量是2,需要建立兩個Tomcat的副本 
  7. selector : 
  8. app: myweb 
  9.  template: #Pod模版,用這個模版來創建Pod 
  10. metadata: 
  11.  labels: 
  12. app:myweb#Pod副本的標簽 
  13. spec: 
  14.  containers: #容器定義部分 
  15.      -name:mysql 
  16. Image:kubeguide/tomcat-app:v1#容器對應的DockerImage 
  17.       Ports: 
  18.       -containerPort:8080#容器應用監聽的端口號 

在 kubectl 中使用 Create 建立 myweb 副本。

 

副本創建完畢以后,創建對應的服務配置文件 myweb-svc.yaml。

  1. apiVersion : v1 
  2. kind: Service #說明創建資源對象的類型是Service 
  3. metadata: 
  4.  name: myweb#Service全局唯一名稱 
  5. spec: 
  6. prots: 
  7. -port: 8080#Service的服務端口號 
  8. nodePort: 30001#這個就是外網訪問Kubernetes內部應用的端口。 
  9.  selector: #Service對應的Pod標簽,用來給Pod分類 
  10.    app: myweb 

同樣在 kubectl 中運行 Create 命令,建立 Service 資源。

 

從上面的配置文件可以看出,Tomcat 的 Service 中多了一個 nodePort 的配置,值為 30001。

也就是說外網通過 30001 這個端口加上 NodeIP 就可以訪問 Tomcat 了。

運行命令之后,得到一個提示,大致意思是“如果你要將服務暴露給外網使用,你需要設置防火墻規則讓 30001 端口能夠通行。”

由于 Cluster-IP 是一個虛擬的 IP,僅供 Kubernetes 內部的 Pod 之間的通信。

Node 作為一個物理節點,因此需要使用 Node-IP 和 nodePort 的組合來從 Kubernetes 外面訪問內部的應用。

如果按照上面的配置,部署了兩個 Tomcat 應用,當外網訪問時選擇那個 Pod 呢?這里需要通過 Kubernetes 之外的負載均衡器來實現的。

 

Kubernetes 之外的負載均衡器

可以通過 Kubernetes 的 LoadBlancerService 組件來協助實現。通過云平臺申請創建負載均衡器,向外暴露服務。

目前 LoadBlancerService 組件支持的云平臺比較完善,比如國外的 GCE、DigitalOcean,國內的阿里云,私有云 OpenStack 等等。

從用法上只要把 Service 的 type=NodePort 改為 type=LoadBalancer,Kubernetes 就會自動創建一個對應的 Load Balancer 實例并返回它的 IP 地址供外部客戶端使用。

至此,MySQL(RC 1)和 Tomcat(RC 2)已經在 Kubernetes 部署了。并在 Kubernetes 內部 Pod 之間是可以互相訪問的,在外網也可以訪問到 Kubernetes 內部的 Pod。

 

Pod 在 Kubernetes 內互相訪問,外網訪問 Pod

另外,作為資源監控 Kubernetes 在每個 Node 和容器上都運行了 cAdvisor。它是用來分析資源使用率和性能的工具,支持 Docker 容器。

kubelet 通過 cAdvisor 獲取其所在 Node 及容器(Docker)的數據。cAdvisor 自動采集 CPU、內存、文件系統和網絡使用的統計信息。

kubelet 作為 Node 的管理者,把 cAdvisor 采集上來的數據通過 RESTAPI 的形式暴露給 Kubernetes 的其他資源,讓他們知道 Node/Pod 中的資源使用情況。

總結

由于微服務的迅猛發展,Kubernetes 作為微服務治理平臺被廣泛應用。由于其發展時間長,包含服務功能多我們無法一一列出。

因此,從一個簡單的創建應用副本的例子入手,介紹了各個重要組件的概念和基本原理。

Kubernetes 是用來管理容器集群的,Master 作為管理者,包括 APIServer,Scheduler,Controller Manager。

Node作為副本部署的載體,包含多個 Pod,每個 Pod 又包含多個容器(container)。用戶通過 kubectl 給 Master 中的 APIServer 下部署命令。

命令主體是以“.yaml”結尾的配置文件,包含副本的類型,副本個數,名稱,端口,模版等信息。

APIServer 接受到請求以后,會分別進行以下操作:權限驗證(包括特殊控制),取出需要創建的資源,保存副本信息到etcd。

APIServer 和 Controller Manager,Scheduler 以及 kubelete 之間通過 List-Watch 方式通信(事件發送與監聽)。

Controller Manager 通過 etcd 獲取需要創建資源的副本數,交由 Scheduler 進行策略分析。

最后 kubelet 負責最終的 Pod 創建和容器加載。部署好容器以后,通過 Service 進行訪問,通過 cAdvisor 監控資源。

作者:崔皓

簡介:十六年開發和架構經驗,曾擔任過惠普武漢交付中心技術專家,需求分析師,項目經理,后在創業公司擔任技術/產品經理。善于學習,樂于分享。目前專注于技術架構與研發管理。

【51CTO原創稿件,合作站點轉載請注明原文作者和出處為51CTO.com】

 

責任編輯:武曉燕 來源: 51CTO技術棧
相關推薦

2019-11-04 13:09:43

數據平臺架構

2021-09-14 13:49:32

開發技能工具

2019-09-09 09:53:52

K8s集群架構

2022-04-22 13:32:01

K8s容器引擎架構

2022-12-28 10:52:34

Etcd備份

2022-06-14 07:56:15

Kubernetes存儲架構K8S

2024-07-22 13:43:31

Kubernetes容器

2023-11-06 07:16:22

WasmK8s模塊

2024-05-27 00:00:10

KubernetesK8s云原生

2022-01-02 08:42:50

架構部署容器

2023-09-06 08:12:04

k8s云原生

2024-12-06 08:00:00

K8s

2024-12-30 08:58:04

2020-05-12 10:20:39

K8s kubernetes中間件

2022-09-05 08:26:29

Kubernetes標簽

2023-05-25 21:38:30

2023-08-03 08:36:30

Service服務架構

2023-08-04 08:19:02

2023-12-05 08:33:44

滴滴故障k8s

2022-08-29 10:08:50

跨集群
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 国产精品久久久一区二区三区 | 亚洲精品视频免费 | 美女视频一区二区三区 | 福利片在线 | 午夜欧美 | 精品精品| 欧美精品首页 | 亚洲最大福利网 | 国产精品完整版 | 欧美日韩福利视频 | 久久久久国产精品人 | 久久久久久久久中文字幕 | 美女天天操 | 成人妇女免费播放久久久 | 久久久精品视频一区二区三区 | 中文天堂网| 色伊人久久 | 一级看片免费视频 | 免费在线观看一级毛片 | 在线成人 | 久久久久久一区 | 9久9久9久女女女九九九一九 | 伊人免费观看视频 | 天堂在线中文 | 日韩欧美在线视频 | 欧美中文字幕一区二区三区 | 精品国产乱码久久久久久果冻传媒 | 天天夜天天操 | 欧美日韩中文在线 | 欧美激情亚洲 | 黄色网址免费在线观看 | 国产女人与拘做受视频 | 日韩精品在线播放 | 韩国av网站在线观看 | 金莲网 | 久草在线在线精品观看 | 精国产品一区二区三区 | 一区二区三区四区不卡 | 色香蕉在线 | 国产欧美一区二区三区在线看 | 精品久久香蕉国产线看观看亚洲 |