成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

五分鐘K8S實戰(zhàn)-使用Ingress

網絡 網絡優(yōu)化
Ingress 通常是充當網關的作用,后續(xù)我們在使用 Istio 時,也可以使用 Istio 所提供的控制器來替換掉 Ingress-nginx,可以更方便的管理內外網流量。

背景

技術、生活、觀點、原創(chuàng)。 原創(chuàng)公眾號; 主要關注 Go、JVM、并發(fā)、分布式、網絡等相關技術。

前兩章中我們將應用部署到了 k8s 中,同時不同的服務之間也可以通過 service 進行調用,現(xiàn)在還有一個步驟就是將我們的應用暴露到公網,并提供域名的訪問。

這一步類似于我們以前配置 Nginx 和綁定域名,提供這個能力的服務在 k8s 中成為 Ingress。

通過這個描述其實也能看出 Ingress 是偏運維的工作,但也不妨礙我們作為研發(fā)去了解這部分的內容;了解整個系統(tǒng)是如何運轉的也是研發(fā)應該掌握的技能。

安裝 Ingress 控制器

在正式使用 Ingress 之前需要給 k8s 安裝一個 Ingress 控制器,我們這里安裝官方提供的 Ingress-nginx 控制器。

當然還有社區(qū)或者企業(yè)提供的各種控制器:

圖片圖片

有兩種安裝方式: helm 或者是直接 apply 一個資源文件。

關于 helm 我們會在后面的章節(jié)單獨講解。

這里就直接使用資源文件安裝即可,我已經上傳到 GitHub 可以在這里訪問:https://github.com/crossoverJie/k8s-combat/blob/main/deployment/ingress-nginx.yaml

其實這個文件也是直接從官方提供的復制過來的,也可以直接使用這個路徑進行安裝:

kubectl apply -f https://raw.githubusercontent.com/kubernetes/ingress-nginx/controller-v1.8.2/deploy/static/provider/cloud/deploy.yaml

yaml 文件的內容是一樣的。

不過要注意安裝之后可能容器狀態(tài)一直處于 Pending 狀態(tài),查看容器的事件時會發(fā)現(xiàn)鏡像拉取失敗。

k describe pod ingress-nginx-controller-7cdfb9988c-lbcst -n ingress-nginx

describe 是一個用于查看 k8s 對象詳細信息的命令。

在剛才那份 yaml 文件中可以看到有幾個鏡像需要拉取,我們可以先在本地手動拉取鏡像:

圖片圖片

docker pull registry.k8s.io/ingress-nginx/controller:v1.8.2

如果依然無法拉取,可以嘗試配置幾個國內鏡像源鏡像拉取:

圖片圖片

我這里使用的 docker-desktop 自帶的 k8s,推薦讀者朋友也使用這個工具。

創(chuàng)建 Ingress

使用剛才的 yaml 安裝成功之后會在 ingress-nginx 命名空間下創(chuàng)建一個 Pod,通過 get 命令查看狀態(tài)為 Running 即為安裝成功。

$ k get pod -n ingress-nginx
NAME                            READY   STATUS    RESTARTS      AGE
ingress-nginx-controller-7cdf   1/1     Running   2 (35h ago)   3d

Namespace 也是 k8s 內置的一個對象,可以簡單理解為對資源進行分組管理,我們通常可以使用它來區(qū)分各個不同的環(huán)境,比如 dev/test/prod 等,不同命名空間下的資源不會互相干擾,且相互獨立。

之后便可以創(chuàng)建 Ingress 資源了:

apiVersion: networking.k8s.io/v1  
kind: Ingress  
metadata:  
  name: k8s-combat-ingress  
spec:  
  ingressClassName: nginx  
  rules:  
    - host: www.service1.io  
      http:  
        paths:  
          - backend:  
              service:  
                name: k8s-combat-service  
                port:  
                  number: 8081  
            path: /  
            pathType: Prefix  
    - host: www.service2.io  
      http:  
        paths:  
          - backend:  
              service:  
                name: k8s-combat-service-2  
                port:  
                  number: 8081  
            path: /  
            pathType: Prefix

看這個內容也很容易理解,創(chuàng)建了一個 Ingress 的對象,其中的重點就是這里的規(guī)則是如何定義的。

在 k8s 中今后還會接觸到各種不同的 Kind。

這里的 ingressClassName: nginx   也是在剛開始安裝的控制器里定義的名字,由這個資源定義。

apiVersion: networking.k8s.io/v1  
kind: IngressClass  
metadata:  
  labels:  
    app.kubernetes.io/component: controller  
    app.kubernetes.io/instance: ingress-nginx  
    app.kubernetes.io/name: ingress-nginx  
    app.kubernetes.io/part-of: ingress-nginx  
    app.kubernetes.io/version: 1.8.2  
  name: nginx

咱們這個規(guī)則很簡單,就是將兩個不同的域名路由到兩個不同的 service。

這里為了方便測試又創(chuàng)建了一個 k8s-combat-service-2 的 service,和 k8s-combat-service 是一樣的,只是改了個名字而已。

測試

也是為了方便測試,我在應用鏡像中新增了一個接口,用于返回當前 Pod 的 hostname。

http.HandleFunc("/", func(w http.ResponseWriter, r *http.Request) {  
   name, _ := os.Hostname()  
   fmt.Fprint(w, name)  
})

由于我實際并沒有 www.service1.io/www.service2.io 這兩個域名,所以只能在本地配置 host 進行模擬。

10.0.0.37 www.service1.io
10.0.0.37 www.service2.io

我測試所使用的 k8s 部署在我家里一臺限制的 Mac 上,所以這里的 IP 它的地址。

當我們反復請求兩次這個接口,會拿到兩個不同的 hostname,也就是將我們的請求輪訓負載到了這兩個 service 所代理的兩個 Pod 中。

? curl http://www.service1.io/
k8s-combat-service-79c5579587-b6nlj%
? curl http://www.service1.io/
k8s-combat-service-79c5579587-bk7nw%
? curl http://www.service2.io/
k8s-combat-service-2-7bbf56b4d9-dkj9b%
? curl http://www.service2.io/
k8s-combat-service-2-7bbf56b4d9-t5l4g

我們也可以直接使用 describe 查看我們的 ingress 定義以及路由規(guī)則:

圖片圖片

$ k describe ingress k8s-combat-ingress
Name:             k8s-combat-ingress
Labels:           <none>
Namespace:        default
Address:          localhost
Ingress Class:    nginx
Default backend:  <default>
Rules:
  Host             Path  Backends
  ----             ----  --------
  www.service1.io
                   /   k8s-combat-service:8081 (10.1.0.65:8081,10.1.0.67:8081)
  www.service2.io
                   /   k8s-combat-service-2:8081 (10.1.0.63:8081,10.1.0.64:8081)
Annotations:       <none>
Events:            <none>

如果我們手動新增一個域名解析:

10.0.0.37 www.service3.io
? curl http://www.service3.io/
<html>
<head><title>404 Not Found</title></head>
<body>
<center><h1>404 Not Found</h1></center>
<hr><center>nginx</center>
</body>
</html>

會直接 404,這是因為沒有找到這個域名的規(guī)則。

訪問原理

圖片圖片

整個的請求路徑如上圖所示,其實我們的 Ingress 本質上也是一個 service(所以它也可以啟動多個副本來進行負載),只是他的類型是 LoadBalancer,通常這種類型的 service 會由云廠商綁定一個外部 IP,這樣就可以通過這個外部 IP 訪問 Ingress 了。

而我們應用的 service 是 ClusterIP,只能在應用內部訪問。

圖片圖片

通過 service 的信息也可以看到,我們 ingress 的 service 綁定的外部 IP 是 localhost(本地的原因)。

總結

Ingress 通常是充當網關的作用,后續(xù)我們在使用 Istio 時,也可以使用 Istio 所提供的控制器來替換掉 Ingress-nginx,可以更方便的管理內外網流量。

本文的所有源碼在這里可以訪問:https://github.com/crossoverJie/k8s-combat

責任編輯:武曉燕 來源: crossoverJie
相關推薦

2023-11-15 13:44:00

k8s-域名日志

2023-11-27 13:54:00

kubernetes高可用

2020-02-19 19:26:27

K8S開源平臺容器技術

2023-09-27 08:09:22

2023-11-30 08:08:30

k8s優(yōu)雅停機

2023-09-21 11:28:28

Kubernetes云原生

2023-09-18 15:49:40

Ingress云原生Kubernetes

2023-09-27 22:33:40

KubernetesK8S

2021-03-12 08:20:24

架構網絡模型

2023-12-25 08:05:35

2023-09-24 22:47:42

Kubernetes親和性

2024-01-29 13:03:02

2024-12-11 07:00:00

面向對象代碼

2025-03-13 06:22:59

2009-11-16 10:53:30

Oracle Hint

2020-06-16 08:47:53

磁盤

2017-09-27 11:00:50

LinuxBash使用技巧

2023-09-06 08:12:04

k8s云原生

2021-08-10 07:57:57

k8s Nginx IngrNginx

2019-08-09 10:33:36

開發(fā)技能代碼
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 中文字幕在线视频网站 | 欧美电影在线观看网站 | 日本视频一区二区三区 | 国产我和子的乱视频网站 | 欧美日一区二区 | 欧美高清视频在线观看 | 天天操夜夜操免费视频 | 一级全黄少妇性色生活免费看 | 日本手机看片 | 天天干天天插 | 精品国产一区二区在线 | 国产欧美精品一区 | 日本久久精 | 99re超碰| 亚洲精品一区二区三区免 | 香蕉视频黄色 | 日韩免费福利视频 | 欧美成人aaa级毛片在线视频 | 黑人精品欧美一区二区蜜桃 | 精品日韩在线 | 国产精品毛片一区二区在线看 | 91久久| 国产成人精品一区二区三 | 天堂va在线观看 | 在线视频日韩 | 中文字幕丁香5月 | 精品一区二区三区中文字幕 | 亚州国产 | 中文字幕在线一区 | 少妇一级淫片免费播放 | 黄网免费 | 日韩中文av在线 | 国产一二区视频 | 成人在线激情 | 欧美午夜剧场 | 日韩免费av一区二区 | 黑人精品xxx一区一二区 | www.久久久.com| 精品国产乱码久久久久久闺蜜 | 亚洲不卡在线观看 | 中文字幕精品视频 |