我來教你如何組裝一個注冊中心?
hello,大家好呀,我是小樓。今天不寫BUG,來聊一聊注冊中心。
標題本來想叫《如何設計一個注冊中心》,但網上已經有好多類似標題的文章了。所以打算另辟蹊徑,換個角度,如何組裝一個注冊中心。
組裝意味著不必從0開始造輪子,這也比較符合許多公司對待自研基礎組件的態度。
知道如何組裝一個注冊中心有什么用呢?
第一可以更深入理解注冊中心。以我個人經歷來說,注冊中心的第一印象就是Dubbo的Zookeeper(以下簡稱zk),后來逐漸深入,學會了如何去zk上查看Dubbo注冊的數據,并能排查一些問題。后來了解了Nacos,才發現,原來注冊中心還可以如此簡單,再后來一直從事服務發現相關工作,對一些細枝末節也有了一些新的理解。
第二可以學習技術選型的方法,注冊中心中的每個模塊,都會在不同的需求下有不同的選擇,最終的選擇取決于對需求的把握以及技術視野,但這兩項是內功,一時半會練不成,學個選型的方法還是可以的。
本文打算從需求分析開始,一步步拆解各個模塊,整個注冊中心以一種如無必要,勿增實體的原則進行組裝,但也不會是個玩具,向生產可用對齊。
當然在實際項目中,不建議重復造輪子,盡量用現成的解決方案,所以本文僅供學習參考。
需求分析
本文的注冊中心需求很簡單,就三點:可注冊、能發現、高可用。
服務的注冊和發現是注冊中心的基本功能,高可用則是生產環境的基本要求,如果高可用不要求,那本文可講解的內容就很少,上圖中的高可用標注只是個示意,高可用在很多方面都有體現。
至于其他花里胡哨的功能,我們暫且不表。
我們這里介紹三個角色,后文以此為基礎:
- 提供者(Provider):服務的提供方(被調用方)
- 消費者(Consumer):服務的消費方(調用方)
- 注冊中心(Registry):本文主角,服務提供列表、消費關系等數據的存儲方
接口定義
注冊中心和客戶端(SDK)的交互接口有三個:
- 注冊(register),將服務提供方注冊到注冊中心
- 注銷(unregister),將注冊的服務從注冊中心中刪除
- 訂閱(subscribe),服務消費方訂閱需要的服務,訂閱后提供方有變更將通知到對應的消費方
注冊、注銷可以是服務提供方的進程發起,也可以是其他的旁路程序輔助發起,比如發布系統在發布一臺機器完成后,可調用注冊接口,將其注冊到注冊中心,注銷也是類似流程,但這種方式并不多見,而且如果只考慮實現一個注冊中心,必然是可以單獨運行的,所以通常注冊、注銷由提供方進程負責。
有了這三個接口,我們該如何去定義接口呢?注冊服務到底有哪些字段需要注冊?訂閱需要傳什么字段?以什么序列化方式?用什么協議傳輸?
這些問題接踵而來,我覺得我們先不急著去做選擇,先看看這個領域有沒有相關標準,如果有就參考或者直接按照標準實現,如果沒有,再來分析每一點的選擇。
服務發現還真有一套標準,但又不完全有。它叫OpenSergo,它其實是服務治理的一套標準,包含了服務發現:
OpenSergo 是一套開放、通用的、面向分布式服務架構、覆蓋全鏈路異構化生態的服務治理標準,基于業界服務治理場景與實踐形成通用標準規范。OpenSergo 的最大特點就是以統一的一套配置/DSL/協議定義服務治理規則,面向多語言異構化架構,做到全鏈路生態覆蓋。無論微服務的語言是 Java, Go, Node.js 還是其它語言,無論是標準微服務還是 Mesh 接入,從網關到微服務,從數據庫到緩存,從服務注冊發現到配置,開發者都可以通過同一套 OpenSergo CRD 標準配置針對每一層進行統一的治理管控,而無需關注各框架、語言的差異點,降低異構化、全鏈路服務治理管控的復雜度。
官網:https://opensergo.io/
我們需要的服務注冊與發現也被納入其中:
說有但也不是完全有是因為這個標準還在建設中,服務發現相關的標準在寫這篇文章的時候還沒有給出。
既然沒有標準,可以結合現有的系統以及經驗來定義,這里我用json的序列化方式給出,以下為筆者的總結,不能囊括所有情形,需要時根據業務適當做一些調整:
服務注冊入參?
{
"application":"provider_test", // 應用名
"protocol":"http", // 協議
"addr":"127.0.0.1:8080", // 提供方的地址
"meta":{ // 攜帶的元數據,以下三個為示例
"cluster":"small",
"idc":"shanghai",
"tag":"read"
}
}
服務訂閱入參
{
"subscribes":[
{
"provider":"test_provider1", // 訂閱的應用名
"protocol":"http", // 訂閱的協議
"meta":{ // 攜帶的元數據,以下為示例
"cluster":"small",
"idc":"shanghai",
"tag":"read"
}
},
{
"provider":"test_provider2",
"protocol":"http",
"meta":{
"cluster":"small",
"tag":"read"
}
}
]
}
服務發現出參
{
"version":"23des4f", // 版本
"endpoints":[ // 實例
{
"application":"provider_test",
"protocol":"http",
"addr":"127.0.0.1:8080",
"meta":{
"cluster":"small",
"idc":"shanghai",
"tag":"read"
}
},
{
"application":"provider_test",
"protocol":"http",
"addr":"127.0.0.2:8080",
"meta":{
"cluster":"small",
"idc":"shanghai",
"tag":"read"
}
}
]
}
變更推送 & 服務健康檢查
有了定義,我們如何選擇序列化方式?選擇序列化方式有兩個重要參考點:
- 語言的適配程度,比如 json 幾乎所有編程語言都能適配。除非能非常確定5-10年內不會有多語言的需求,否則我還是非常建議你選擇一個跨語言的序列化協議
- 性能,序列化的性能包含了兩層意思,序列化的速度(cpu消耗)與序列化后的體積,設想一個場景,一個服務被非常多的應用訂閱,如果此時該服務發布,則會觸發非常龐大的推送事件,此時注冊中心的cpu和網絡則有可能被打滿,導致服務不可用
至于編程語言的選擇,我覺得應該更加偏向團隊對語言的掌握,以能hold住為最主要,這點沒什么好說的,一般也只會在 Java / Go 中去選,很少見用其他語言實現的注冊中心。
對于注冊、訂閱接口,無論是基于TCP的自定義私有協議,還是用HTTP協議,甚至基于HTTP2的gRPC我覺得都可以。
但變更推送這個技術點的實現,有多種實現方式:
- 定時輪詢,每隔一段時間向注冊中心請求查詢訂閱的服務提供列表
- 長輪詢,向注冊中心查詢訂閱的服務提供列表,如果列表較上次沒有變化,則服務端hold住請求,等待有變化或者超時(較長時間)才返回
- UDP推送,服務列表有變化時通過UDP將事件通知給客戶端,但UDP推送不一定可靠,可能會丟失、亂序,故要配合定時輪詢(較長時間間隔)來作為一個兜底
- TCP長連接推送,客戶端與注冊中心建立一個TCP長連接,有變更時推送給客戶端
從實現的難易、實時性、資源消耗三個方面來比較這四種實現方式:
實現難易 | 實時性 | 資源消耗 | 備注 | |
定時輪詢 | 簡單 | 低 | 高 | 實時性越高,資源消耗越多 |
長輪詢 | 中等 | 高 | 中等 | 服務端hold住很多請求 |
UDP推送 | 中等 | 高 | 低 | 推送可能丟失,需要配合定時輪詢(間隔較長) |
TCP長連接推送 | 中等 | 高 | 中等 | 服務端需要保持很多長連接 |
似乎我們不好抉擇到底使用哪種方式來做推送,但以我自己的經驗來看,定時輪詢應該首先被排除,因為即便是一個初具規模的公司,定時輪詢的消耗也是巨大的,更何況這種消耗隨著實時性以及服務的規模日漸龐大,最后變得不可維護。
剩下三種方案都可以選擇,我們可以繼續結合服務節點的健康檢查來綜合判斷。
服務啟動時注冊到注冊中心,當服務停止時,從注冊中心摘除,通常摘除會借助劫持kill?信號實現,如果是Java則有封裝好的ShutdownHook,當進程被 kill 時,觸發劫持邏輯,從注冊中心摘除,實現優雅退出。
但事情不總是如預期,如果有人執行了kill -9強制殺死進程,或者機器出現硬件故障,會導致提供者還在注冊中心,但已無法提供服務。
此時需要一種健康檢查機制來確保服務宕機時,消費者能正常感知,從而切走流量,保證線上服務的穩定性。
關于健康檢查機制,在之前的文章《??服務探活的五種方式??》中有專門的總結,這里也列舉一下,以便做出正確的選擇:
優點 | 缺點 | |
消費者被動探活 | 不依賴注冊中心 | 需在服務調用處實現邏輯;用真實流量探測,可能會有滯后性 |
消費者主動探活 | 不依賴注冊中心 | 需在服務調用處實現邏輯 |
提供者上報心跳 | 對調用無入侵 | 需消費者服務發現模塊實現邏輯,服務端處理心跳消耗資源大 |
注冊中心主動探測 | 對客戶端無要求 | 資源消耗大,實時性不高 |
提供者與注冊中心會話保持 | 實時性好,資源消耗少 | 與注冊中心需保持TCP長連接 |
我們暫時無法控制調用動作,故而前2項依賴消費者的方案排除,提供者上報心跳如果規模較小還好,上點規模也會不堪重任,這點在Nacos中就體現了,Nacos 1.x版本使用提供者上報心跳的方式保持服務健康狀態,由于每次上報健康狀態都需要寫入數據(最后健康檢查時間),故對資源的消耗是非常大的,所以Nacos 2.0版本后就改為了長連接會話保持健康狀態。
所以健康檢查我個人比較傾向最后兩種方案:注冊中心主動探測與提供者與注冊中心會話保持的方式。
結合上述變更推送,我們發現如果實現了長連接,好處將很多,很多情況下,一個服務既是消費者,又是提供者,此時一條TCP長連接可以解決推送和健康檢查,甚至在注冊注銷接口的實現,我們也可以復用這條連接,可謂是一石三鳥。
長連接技術選型
長連接的技術選型,在《Nacos架構與原理》這本電子書中有有詳細的介紹,我覺得這部分堪稱技術選型的典范,我們參考下,本節內容大量參考《Nacos架構與原理》,如有雷同,那便是真是雷同。
首先是長連接的核心訴求:
圖來自《Nacos架構與原理》
- 低成本快速感知:客戶端需要在服務端不可用時盡快地切換到新的服務節點,降低不可用時間
客戶端正常重啟:客戶端主動關閉連接,服務端實時感知
服務端正常重啟 : 服務端主動關閉連接,客戶端實時感知
- 防抖:網絡短暫不可用,客戶端需要能接受短暫網絡抖動,需要一定重試機制,防止集群抖動,超過閾值后需要自動切換 server,但要防止請求風暴
- 斷網:斷網場景下,以合理的頻率進行重試,斷網結束時可以快速重連恢復
- 低成本多語言實現:在客戶端層面要盡可能多的支持多語言,降低多 語言實現成本
- 開源社區:文檔,開源社區活躍度,使用用戶數等,面向未來是否有足夠的支持度
據此,我們可選的輪子有:
gRPC | Rsocket | Netty | Mina | |
客戶端感知斷連 | 基于 stream 流 error complete 事件可實現 | 支持 | 支持 | 支持 |
服務端感知斷連 | 支持 | 支持 | 支持 | 支持 |
心跳?;?/p> | 應用層自定義,ping-pong 消息 | 自定義 kee palive frame | TCP+ 自定義 | 自定義 kee palive filter |
多語言支持 | 強 | 一般 | 只Java | 只Java |
我比較傾向gRPC,而且gRPC的社區活躍度要強于Rsocket。
數據存儲
注冊中心數據存儲方案,大致可分為2類:
- 利用第三方組件完成,如Mysql、Redis等,好處是有現成的水平擴容方案,穩定性強;壞處是架構變得復雜
- 利用注冊中心本身來存儲數據,好處是無需引入額外組件;壞處是需要解決穩定性問題
第一種方案我們不必多說,第二種方案中最關鍵的就是解決數據在注冊中心各節點之間的同步,因為在數據存儲在注冊中心本身節點上,如果是單機,機器故障或者掛掉,數據存在丟失風險,所以必須得有副本。
數據不能丟失,這點必須要保證,否則穩定性就無從談起了。保證數據不丟失怎么理解?在客戶端向注冊中心發起注冊請求后,收到正常的響應,這就意味著數據存儲了起來,除非所有注冊中心節點故障,否則數據就一定要存在。
如下圖,比如提供者往一個節點注冊數據后,正常響應,但是數據同步是異步的,在同步完成前,nodeA節點就掛掉,則這條注冊數據就丟失了。
所以,我們要極力避免這種情況。
而一致性算法(如raft)就解決了這個問題,一致性算法能保證大部分節點是正常的情況下,能對外提供一致的數據服務,但犧牲了性能和可用性,raft算法在選主時便不能對外提供服務。
有沒有退而求其次的算法呢?還真有,像Nacos、Eureka提供的AP模型,他們的核心點在于客戶端可以recover數據,也就是注冊中心追求最終一致性,如果某些數據丟失,服務提供方是可以重新將數據注冊上來。
比如我們將提供方與注冊中心之間設計為長連接,提供方注冊服務后,連接的節點還沒來得及將數據同步到其他節點就掛了,此時提供方的連接也會斷開,當連接重新建立時,服務提供方可以重新注冊,恢復注冊中心的數據。
對于注冊中心選用AP、還是CP模型,業界早有爭論,但也基本達成了共識,AP要優于CP,因為數據不一致總比不可用要好吧?你說是不是。
高可用
其實高可用的設計散落在各個細節點,如上文提到的數據存儲,其基本要求就是高可用。除此之外,我們的設計也都必須是面向失敗的設計。
假設我們的服務器會全部掛掉,怎樣才能保持服務間的調用不受影響?
通常注冊中心不侵入服務調用,而是在內存(或磁盤)中緩存一份服務列表,當注冊中心完全掛了,大不了這份緩存不再更新,但也不影響現有的服務調用,但新應用啟動就會受到影響。
總結
本文內容略多,用一幅圖來總結:
組裝一個線上可用的注冊中心最小集,從需求分析出發,每一步都有許多選擇,本文通過一些核心的技術選型來描繪出一個大致藍圖,剩下的工作就是用代碼將這些組裝起來。