成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

我來教你如何組裝一個注冊中心?

開發 前端
本文打算從需求分析開始,一步步拆解各個模塊,整個注冊中心以一種如無必要,勿增實體的原則進行組裝,但也不會是個玩具,向生產可用對齊。

hello,大家好呀,我是小樓。今天不寫BUG,來聊一聊注冊中心。

標題本來想叫《如何設計一個注冊中心》,但網上已經有好多類似標題的文章了。所以打算另辟蹊徑,換個角度,如何組裝一個注冊中心。

組裝意味著不必從0開始造輪子,這也比較符合許多公司對待自研基礎組件的態度。

知道如何組裝一個注冊中心有什么用呢?

第一可以更深入理解注冊中心。以我個人經歷來說,注冊中心的第一印象就是Dubbo的Zookeeper(以下簡稱zk),后來逐漸深入,學會了如何去zk上查看Dubbo注冊的數據,并能排查一些問題。后來了解了Nacos,才發現,原來注冊中心還可以如此簡單,再后來一直從事服務發現相關工作,對一些細枝末節也有了一些新的理解。

第二可以學習技術選型的方法,注冊中心中的每個模塊,都會在不同的需求下有不同的選擇,最終的選擇取決于對需求的把握以及技術視野,但這兩項是內功,一時半會練不成,學個選型的方法還是可以的。

本文打算從需求分析開始,一步步拆解各個模塊,整個注冊中心以一種如無必要,勿增實體的原則進行組裝,但也不會是個玩具,向生產可用對齊。

當然在實際項目中,不建議重復造輪子,盡量用現成的解決方案,所以本文僅供學習參考。

需求分析

圖片

本文的注冊中心需求很簡單,就三點:可注冊、能發現、高可用。

服務的注冊和發現是注冊中心的基本功能,高可用則是生產環境的基本要求,如果高可用不要求,那本文可講解的內容就很少,上圖中的高可用標注只是個示意,高可用在很多方面都有體現。

至于其他花里胡哨的功能,我們暫且不表。

我們這里介紹三個角色,后文以此為基礎:

  • 提供者(Provider):服務的提供方(被調用方)
  • 消費者(Consumer):服務的消費方(調用方)
  • 注冊中心(Registry):本文主角,服務提供列表、消費關系等數據的存儲方

接口定義

注冊中心和客戶端(SDK)的交互接口有三個:

  • 注冊(register),將服務提供方注冊到注冊中心
  • 注銷(unregister),將注冊的服務從注冊中心中刪除
  • 訂閱(subscribe),服務消費方訂閱需要的服務,訂閱后提供方有變更將通知到對應的消費方

注冊、注銷可以是服務提供方的進程發起,也可以是其他的旁路程序輔助發起,比如發布系統在發布一臺機器完成后,可調用注冊接口,將其注冊到注冊中心,注銷也是類似流程,但這種方式并不多見,而且如果只考慮實現一個注冊中心,必然是可以單獨運行的,所以通常注冊、注銷由提供方進程負責。

有了這三個接口,我們該如何去定義接口呢?注冊服務到底有哪些字段需要注冊?訂閱需要傳什么字段?以什么序列化方式?用什么協議傳輸?

這些問題接踵而來,我覺得我們先不急著去做選擇,先看看這個領域有沒有相關標準,如果有就參考或者直接按照標準實現,如果沒有,再來分析每一點的選擇。

服務發現還真有一套標準,但又不完全有。它叫OpenSergo,它其實是服務治理的一套標準,包含了服務發現:

OpenSergo 是一套開放、通用的、面向分布式服務架構、覆蓋全鏈路異構化生態的服務治理標準,基于業界服務治理場景與實踐形成通用標準規范。OpenSergo 的最大特點就是以統一的一套配置/DSL/協議定義服務治理規則,面向多語言異構化架構,做到全鏈路生態覆蓋。無論微服務的語言是 Java, Go, Node.js 還是其它語言,無論是標準微服務還是 Mesh 接入,從網關到微服務,從數據庫到緩存,從服務注冊發現到配置,開發者都可以通過同一套 OpenSergo CRD 標準配置針對每一層進行統一的治理管控,而無需關注各框架、語言的差異點,降低異構化、全鏈路服務治理管控的復雜度。

官網:https://opensergo.io/

我們需要的服務注冊與發現也被納入其中:

圖片

說有但也不是完全有是因為這個標準還在建設中,服務發現相關的標準在寫這篇文章的時候還沒有給出。

既然沒有標準,可以結合現有的系統以及經驗來定義,這里我用json的序列化方式給出,以下為筆者的總結,不能囊括所有情形,需要時根據業務適當做一些調整:

服務注冊入參?

{
"application":"provider_test", // 應用名
"protocol":"http", // 協議
"addr":"127.0.0.1:8080", // 提供方的地址
"meta":{ // 攜帶的元數據,以下三個為示例
"cluster":"small",
"idc":"shanghai",
"tag":"read"
}
}

服務訂閱入參

{
"subscribes":[
{
"provider":"test_provider1", // 訂閱的應用名
"protocol":"http", // 訂閱的協議
"meta":{ // 攜帶的元數據,以下為示例
"cluster":"small",
"idc":"shanghai",
"tag":"read"
}
},
{
"provider":"test_provider2",
"protocol":"http",
"meta":{
"cluster":"small",
"tag":"read"
}
}
]
}

服務發現出參

{
"version":"23des4f", // 版本
"endpoints":[ // 實例
{
"application":"provider_test",
"protocol":"http",
"addr":"127.0.0.1:8080",
"meta":{
"cluster":"small",
"idc":"shanghai",
"tag":"read"
}
},
{
"application":"provider_test",
"protocol":"http",
"addr":"127.0.0.2:8080",
"meta":{
"cluster":"small",
"idc":"shanghai",
"tag":"read"
}
}
]
}

變更推送 & 服務健康檢查

有了定義,我們如何選擇序列化方式?選擇序列化方式有兩個重要參考點:

  • 語言的適配程度,比如 json 幾乎所有編程語言都能適配。除非能非常確定5-10年內不會有多語言的需求,否則我還是非常建議你選擇一個跨語言的序列化協議
  • 性能,序列化的性能包含了兩層意思,序列化的速度(cpu消耗)與序列化后的體積,設想一個場景,一個服務被非常多的應用訂閱,如果此時該服務發布,則會觸發非常龐大的推送事件,此時注冊中心的cpu和網絡則有可能被打滿,導致服務不可用

至于編程語言的選擇,我覺得應該更加偏向團隊對語言的掌握,以能hold住為最主要,這點沒什么好說的,一般也只會在 Java / Go 中去選,很少見用其他語言實現的注冊中心。

對于注冊、訂閱接口,無論是基于TCP的自定義私有協議,還是用HTTP協議,甚至基于HTTP2的gRPC我覺得都可以。

但變更推送這個技術點的實現,有多種實現方式:

  • 定時輪詢,每隔一段時間向注冊中心請求查詢訂閱的服務提供列表
  • 長輪詢,向注冊中心查詢訂閱的服務提供列表,如果列表較上次沒有變化,則服務端hold住請求,等待有變化或者超時(較長時間)才返回
  • UDP推送,服務列表有變化時通過UDP將事件通知給客戶端,但UDP推送不一定可靠,可能會丟失、亂序,故要配合定時輪詢(較長時間間隔)來作為一個兜底
  • TCP長連接推送,客戶端與注冊中心建立一個TCP長連接,有變更時推送給客戶端

從實現的難易、實時性、資源消耗三個方面來比較這四種實現方式:


實現難易

實時性

資源消耗

備注

定時輪詢

簡單

實時性越高,資源消耗越多

長輪詢

中等

中等

服務端hold住很多請求

UDP推送

中等

推送可能丟失,需要配合定時輪詢(間隔較長)

TCP長連接推送

中等

中等

服務端需要保持很多長連接

似乎我們不好抉擇到底使用哪種方式來做推送,但以我自己的經驗來看,定時輪詢應該首先被排除,因為即便是一個初具規模的公司,定時輪詢的消耗也是巨大的,更何況這種消耗隨著實時性以及服務的規模日漸龐大,最后變得不可維護。

剩下三種方案都可以選擇,我們可以繼續結合服務節點的健康檢查來綜合判斷。

服務啟動時注冊到注冊中心,當服務停止時,從注冊中心摘除,通常摘除會借助劫持kill?信號實現,如果是Java則有封裝好的ShutdownHook,當進程被 kill 時,觸發劫持邏輯,從注冊中心摘除,實現優雅退出。

但事情不總是如預期,如果有人執行了kill -9強制殺死進程,或者機器出現硬件故障,會導致提供者還在注冊中心,但已無法提供服務。

此時需要一種健康檢查機制來確保服務宕機時,消費者能正常感知,從而切走流量,保證線上服務的穩定性。

關于健康檢查機制,在之前的文章《??服務探活的五種方式??》中有專門的總結,這里也列舉一下,以便做出正確的選擇:


優點

缺點

消費者被動探活

不依賴注冊中心

需在服務調用處實現邏輯;用真實流量探測,可能會有滯后性

消費者主動探活

不依賴注冊中心

需在服務調用處實現邏輯

提供者上報心跳

對調用無入侵

需消費者服務發現模塊實現邏輯,服務端處理心跳消耗資源大

注冊中心主動探測

對客戶端無要求

資源消耗大,實時性不高

提供者與注冊中心會話保持

實時性好,資源消耗少

與注冊中心需保持TCP長連接

我們暫時無法控制調用動作,故而前2項依賴消費者的方案排除,提供者上報心跳如果規模較小還好,上點規模也會不堪重任,這點在Nacos中就體現了,Nacos 1.x版本使用提供者上報心跳的方式保持服務健康狀態,由于每次上報健康狀態都需要寫入數據(最后健康檢查時間),故對資源的消耗是非常大的,所以Nacos 2.0版本后就改為了長連接會話保持健康狀態。

所以健康檢查我個人比較傾向最后兩種方案:注冊中心主動探測與提供者與注冊中心會話保持的方式。

結合上述變更推送,我們發現如果實現了長連接,好處將很多,很多情況下,一個服務既是消費者,又是提供者,此時一條TCP長連接可以解決推送和健康檢查,甚至在注冊注銷接口的實現,我們也可以復用這條連接,可謂是一石三鳥。

長連接技術選型

長連接的技術選型,在《Nacos架構與原理》這本電子書中有有詳細的介紹,我覺得這部分堪稱技術選型的典范,我們參考下,本節內容大量參考《Nacos架構與原理》,如有雷同,那便是真是雷同。

首先是長連接的核心訴求:

圖片

圖來自《Nacos架構與原理》

  • 低成本快速感知:客戶端需要在服務端不可用時盡快地切換到新的服務節點,降低不可用時間

客戶端正常重啟:客戶端主動關閉連接,服務端實時感知

服務端正常重啟 : 服務端主動關閉連接,客戶端實時感知

  • 防抖:網絡短暫不可用,客戶端需要能接受短暫網絡抖動,需要一定重試機制,防止集群抖動,超過閾值后需要自動切換 server,但要防止請求風暴
  • 斷網:斷網場景下,以合理的頻率進行重試,斷網結束時可以快速重連恢復
  • 低成本多語言實現:在客戶端層面要盡可能多的支持多語言,降低多 語言實現成本
  • 開源社區:文檔,開源社區活躍度,使用用戶數等,面向未來是否有足夠的支持度

據此,我們可選的輪子有:


gRPC

Rsocket

Netty

Mina

客戶端感知斷連

基于 stream 流 error complete 事件可實現

支持

支持

支持

服務端感知斷連

支持

支持

支持

支持

心跳?;?/p>

應用層自定義,ping-pong 消息

自定義 kee palive frame

TCP+ 自定義

自定義 kee palive filter

多語言支持

一般

只Java

只Java

我比較傾向gRPC,而且gRPC的社區活躍度要強于Rsocket。

數據存儲

注冊中心數據存儲方案,大致可分為2類:

  • 利用第三方組件完成,如Mysql、Redis等,好處是有現成的水平擴容方案,穩定性強;壞處是架構變得復雜
  • 利用注冊中心本身來存儲數據,好處是無需引入額外組件;壞處是需要解決穩定性問題

第一種方案我們不必多說,第二種方案中最關鍵的就是解決數據在注冊中心各節點之間的同步,因為在數據存儲在注冊中心本身節點上,如果是單機,機器故障或者掛掉,數據存在丟失風險,所以必須得有副本。

數據不能丟失,這點必須要保證,否則穩定性就無從談起了。保證數據不丟失怎么理解?在客戶端向注冊中心發起注冊請求后,收到正常的響應,這就意味著數據存儲了起來,除非所有注冊中心節點故障,否則數據就一定要存在。

如下圖,比如提供者往一個節點注冊數據后,正常響應,但是數據同步是異步的,在同步完成前,nodeA節點就掛掉,則這條注冊數據就丟失了。

圖片

所以,我們要極力避免這種情況。

而一致性算法(如raft)就解決了這個問題,一致性算法能保證大部分節點是正常的情況下,能對外提供一致的數據服務,但犧牲了性能和可用性,raft算法在選主時便不能對外提供服務。

有沒有退而求其次的算法呢?還真有,像Nacos、Eureka提供的AP模型,他們的核心點在于客戶端可以recover數據,也就是注冊中心追求最終一致性,如果某些數據丟失,服務提供方是可以重新將數據注冊上來。

比如我們將提供方與注冊中心之間設計為長連接,提供方注冊服務后,連接的節點還沒來得及將數據同步到其他節點就掛了,此時提供方的連接也會斷開,當連接重新建立時,服務提供方可以重新注冊,恢復注冊中心的數據。

對于注冊中心選用AP、還是CP模型,業界早有爭論,但也基本達成了共識,AP要優于CP,因為數據不一致總比不可用要好吧?你說是不是。

高可用

其實高可用的設計散落在各個細節點,如上文提到的數據存儲,其基本要求就是高可用。除此之外,我們的設計也都必須是面向失敗的設計。

假設我們的服務器會全部掛掉,怎樣才能保持服務間的調用不受影響?

通常注冊中心不侵入服務調用,而是在內存(或磁盤)中緩存一份服務列表,當注冊中心完全掛了,大不了這份緩存不再更新,但也不影響現有的服務調用,但新應用啟動就會受到影響。

總結

本文內容略多,用一幅圖來總結:

圖片

組裝一個線上可用的注冊中心最小集,從需求分析出發,每一步都有許多選擇,本文通過一些核心的技術選型來描繪出一個大致藍圖,剩下的工作就是用代碼將這些組裝起來。

責任編輯:武曉燕 來源: 捉蟲大師
相關推薦

2022-08-26 01:46:33

注冊中心NacosDNS

2018-10-11 21:00:18

2024-05-16 10:59:16

Vue項目前端

2024-03-06 11:14:13

ViteReact微前端

2018-07-06 13:58:18

程序員學習互聯網

2019-01-23 10:11:43

Python爬蟲IP

2018-07-19 09:15:27

2021-05-27 11:10:23

注冊中心業務

2018-10-08 15:00:47

Python區塊鏈編程語言

2023-09-04 08:45:07

分布式配置中心Zookeeper

2013-08-26 13:58:20

2020-01-11 17:00:07

DjangoPythonWeb API

2023-07-11 06:32:03

2023-07-12 07:06:23

2019-09-30 09:26:29

Java編程語言國旗

2019-07-31 07:36:12

架構運維技術

2009-07-14 21:41:10

數據中心計算機系統

2023-12-21 08:35:30

注冊中心EurakaEtcd

2022-03-07 05:53:41

線程CPU代碼

2017-02-13 08:21:36

點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 中文字幕av在线播放 | 在线免费观看a级片 | zzzwww在线看片免费 | 永久av| 日本视频中文字幕 | 一区二区三区免费 | 亚洲一区综合 | 亚洲免费观看 | 牛牛热在线视频 | 国产精品亚洲一区二区三区在线观看 | 北条麻妃视频在线观看 | 国产高清在线 | 亚洲国产精品一区二区三区 | 国产一区二区欧美 | 视频精品一区二区三区 | 午夜视频免费网站 | 久久免费国产 | 亚洲 中文 欧美 日韩 在线观看 | 亚洲一区二区免费 | www视频在线观看 | 国产精品观看 | 精品国产99| 最新免费黄色网址 | 91社区在线观看 | 久久精品国产免费看久久精品 | 久久成人精品 | 日韩毛片在线免费观看 | 欧美日韩在线一区二区 | 亚洲一区久久 | 亚洲欧美一区二区三区国产精品 | 99久久精品国产一区二区三区 | 欧美极品一区二区 | 一二三区视频 | 成人网av| 亚州影院 | 懂色中文一区二区三区在线视频 | 欧美日本在线观看 | 国产偷录视频叫床高潮对白 | 亚洲看片网站 | 欧美不卡 | 色综合久 |