成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

vivo 超大規模消息中間件實踐之路

開發 架構
本文主要介紹超大數據規模場景下分布式消息中間件在vivo的應用實踐。

在線業務側主要從RocketMQ集群部署架構、平臺系統架構、日常運維操作平臺、監控告警一體化實踐以及vivo如何通過建設AMQP消息網關的方式完成所有在線業務服務從RabbitMQ到RocketMQ的業務無感遷移,實現了在線業務消息中間件組件的統一。

大數據側主要從資源隔離、流量均衡、智能動態限流、集群治理四個維度介紹Kafka在vivo的最佳實踐以及Kafka核心技術架構在超大數據規模場景下的缺陷以及未來對Pulsar組件的長線規劃和建設。

一、分布式消息中間件在vivo的運營現狀

1.1 技術選型

圖片

在技術選型上,我們從吞吐量、功能特性、生態集成、開源活躍等多個維度對比了當前主流的分布式消息中間件,最終在線業務側我們選擇基于RocketMQ構建消息平臺,依托RocketMQ豐富的功能特性滿足業務間削峰、解耦、異步化的需求。

大數據側我們選擇具備高并發、高可用、低延遲、高吞吐能力的分布式消息中間件Kafka。構建超大數據規模處理能力的統一數據接入服務和實時數倉服務。Kafka組件作為統一數據接入服務,是大數據全鏈路中的咽喉要道,是大數據生態體系建設中不可或缺的重要組件之一。

1.2 規模現狀

運營指標方面目前大數據業務側Kafka集群接入項目數百、接入規模方面Topic數量達到數萬、集群日均處理消息達數十萬億條、可用性保障99.99%、單機日均處理消息達數百億條。

在線業務側RocketMQ集群接入項目數百、接入規模方面接入數千服務、集群日均處理消息達數百億條、可用性保障100%,發送平均耗時<1ms。

二、大數據側消息中間件最佳實踐

2.1 Kafka簡介

圖片

首先我們看下Kafka的官網定義及發展歷史,Kafka是由Apache軟件基金會開源的一個流處理平臺,是一種高吞吐量的分布式發布訂閱消息系統。具有高吞吐、低延遲、高并發、高可用、高可擴等特性。

Kafka是由LinkedIn公司在2010年開源,2011年交由Apache軟件基金會進行孵化,2012年成為Apache軟件基金會的頂級開源項目。

2.2 Kafka在超大數據規模場景下面臨的挑戰

圖片

在超大數據規模場景下我們會面臨以下幾個問題?

  1. 如何規劃資源隔離保證核心業務、高優業務、一般業務之間相互不受影響?
  2. 如何保證集群內部節點間流量均衡,降低單節點或部分節點流量差異太大帶來的資源浪費?
  3. 超大數據規模場景下如何進行限流保障集群的穩定性并盡可能降低對業務可用性的影響?
  4. 集群長期運行,客戶端版本多樣,如何持續保障集群的高可用性?

下面我將從資源隔離、流量均衡、智能動態限流、集群治理四個維度和大家一起交流Kafka在vivo的最佳實踐。

2.3 資源隔離

圖片

資源隔離的核心作用在于避免業務與業務之間的相互影響,但隔離粒度、資源利用率、運維成本之間如何進行權衡,是我們需要思考的重點。隔離粒度太粗會導致隔離效果不佳,隔離粒度太細會導致資源利用率較低、運維成本增加。

那vivo在Kafka集群資源隔離上是如何平衡三者關系的呢?

首先我們根據業務屬性、業務線兩個維度進行集群維度的隔離,例如我們在集群劃分上分為了商業化專用集群,監控專用集群,日志專用集群等。在集群維度做了機器資源的物理隔離。

同時我們在集群內部引入了資源組的概念。同一個集群內部可以包含多個資源組。每個資源組可以為多個業務提供服務。資源組與資源組之間相互獨立。

上圖中右上圖是我們沒有引入資源組概念時集群內部不同業務Topic分區的分散情況,大家可以看到業務A和業務B的Topic分區分散到集群內的所有broker上,若業務A的流量突增可能會造成業務B受到影響,右下圖是我們引入資源組概念后不同業務Topic分區的分散情況,可以看到不同業務的topic分區只會分配到自己業務所屬的資源組內,即使業務A的流量突增導致機器不可用也不會對業務B造成影響。

引入資源組概念后讓我們能在集群內部實現機器資源的邏輯隔離。所以我們在資源隔離方面采用了物理隔離和邏輯隔離兩種方式相結合,實現了在超大數據規模場景下Kafka集群的資源隔離方案。

2.4 流量均衡

圖片

流量均衡的核心作用在于充分利用集群內部資源,提升資源利用率。Kafka服務作為一個有狀態的服務,Kafka在技術架構設計上Topic分區與節點綁定,不支持分區同一副本數據在磁盤和節點維度分散存儲。對分區的讀寫請求都由分區Leader所在節點進行處理。所以Kafka集群流量均衡的本質是Topic分區的分散均衡。

在流量均衡方面我們做兩期的建設,第一期我們在分區分散均衡算法上引入機器的實時出入流量、cpu負載、磁盤存儲等指標作為負載因子生成分區遷移計劃。執行分區遷移后達到流量均衡的目的。流量均衡一期功能上線后我們將資源組內節點間流量差異從數百兆/s降低到數十兆/s。隨著集群數據規模的持續增加,我們發現數十兆/s的流量差異依然會造成資源浪費。

所以在流量均衡二期功能建設上我們增加了分區分散均衡、Leader分散均衡、副本分散均衡、磁盤均衡等Kafka元數據指標作為負載因子生成Kafka分區遷移計劃,并在分區遷移執行上增加了多種遷移提交策略。流量均衡二期功能上線后我們將資源組內節點間流量差異從數十兆/s降低到十兆以內/s。

圖片

上圖是我們流量均衡一期功能上線前后資源組內節點的流量監控面板,可以看到一期功能上線前資源組內節點間的流量偏差在數百兆/s。一期功能上線后資源組內節點間流量偏差在數十兆/s以內,資源組內節點間流量偏差降低75%。極大提升了服務端的資源利用率。

圖片

上圖是我們流量均衡二期功能上線前后資源組內節點的入出流量監控面板,可以看到節點間入出流量偏差從數十兆/s降低到十兆以內/s,資源組內節點間流量偏差降低80%。效果也是非常明顯。

2.5 智能動態限流

圖片

限流的本質是限制客戶端的流量突增以確保服務端的可用性。避免客戶端的流量突增導致服務端整體不可用。限流的粒度,限流閾值的設定,資源利用率、服務端穩定性之間應該如何做權衡呢?是我們需要思考的重點。限流粒度太粗會導致限流效果不佳,當大部分業務同時流量突增會對服務端的穩定性帶來風險。限流粒度太細服務端應對客服端流量突增能力不足,限流閾值設置太大會給服務端穩定性帶來風險,限流閾值設置太小會導致服務端資源利用率較低。

限流方面,

  1. 首先我們采用多平臺聯合診斷機制根據項目實際生產數據情況判別是否需要進行流量調整,計算調整后的限流閾值。其中多平臺包含(JMX統一指標采集平臺,統一監控平臺、統一告警平臺、Kafka集群管理平臺等)。
  2. 第二、智能分析Kafka集群服務資源負載情況,計算各資源剩余情況。確定是否可以進行閾值調整并結合客戶端實際生產數據情況計算閾值調整到多少合適。
  3. 第三、自動實時調整限流閾值。

通過以上三步實現智能動態限流方案。解決了限流粒度、限流閾值設定、資源利用率、Kafka集群可用性四者之間的平衡關系。

實現智能動態限流后給我們帶來以下幾點明顯的收益。

圖片

  1. 大大提升Kafka集群服務端應對客戶端流量突增的能力。
  2. 利用項目錯峰的方式進一步提升Kafka集群的資源利用率。
  3. 智能化自動調整項目限流閾值無需人工介入,大大降低Kafka集群在超大數據規模場景下的運維成本。
  4. 動態根據服務端負載情況調整項目限流閾值,盡可能減小限流對業務可用性的影響。

2.6 集群治理

圖片

Kafka集群元數據統一由ZooKeeper集群管理,元數據信息永久有效永不過期,元數據的下發由Kafka Controller節點統一下發,隨著業務的不斷發展,數據規模的不斷增加,集群內部Topic的數量達到萬級,分區數量達到數十萬級。元數據治理能有效避免元數規模給Kafka集群穩定性帶來的影響。隨著接入的服務、Kafka用戶越來越多,正確的使用Kafka 客戶端也能大大提升Kafka服務端的穩定性和資源利用率。Kafka分區與磁盤目錄綁定,創建Topic、Topic分區擴容時根據Topic流量合理設置Topic分區數能有效避免單機或單盤性能瓶頸成為集群整體的性能瓶頸。

vivo在Kafka集群治理方面實現了節點流量偏差治理、Topic元數據治理、Topic分區數據傾斜治理、Topic超大分區治理、Topic消費延遲治理等方案為Kafka集群的高可用性保駕護航。

2.7 實踐經驗沉淀

圖片

vivo Kafka消息中間件團隊在三年時間內,根據實際的業務場景和生產數據規模沉淀了較多的實踐經驗。例如在高可用/高可擴方面實現了機架感知、彈性伸縮、數據壓縮等能力建設,在監控告警方面提供了用戶限流告警、Topic流量突增告警、消費延遲告警、Leader實時監控告警,多平臺聯合故障感知告警等能力建設。我們為Kafka集群做了很多的擴展能力建設,那解決了Kafka集群在超大數據規模場景下的所有問題了嗎?答案是否定的。

接下來我們一起看看Kafka集群在超大數據規模場景下面臨的新挑戰。

2.8 Kafka在超大數據規模場景下由技術架構帶來的缺陷

圖片

由Kafka架構設計所帶來的一些痛點無法通過擴展能力解決,并且Kafka架構設計上分區同一副本數據與磁盤強綁定不支持分散存儲、不支持存儲與運算分離、不支持冷熱數據分層存儲等設計缺陷在超大數據規模場景下顯得尤為明顯。所以在超大數據規模場景下Kafka集群面臨了以下幾個痛點。

  1. 資源利用率低。
  2. 無法快速響應業務增長。
  3. 故障恢復時間長。
  4. 歷史數據消費故障率高(主要體現在磁盤io性能上)。

2.9 大數據側分布式消息中間件未來規劃

基于以上Kafka在架構設計上的缺陷,vivo Kafka團隊于2021年開始對另一款開源分布式消息中間件Pulsar進行調研。

2.9.1 Pulsar簡介


圖片

我們看下Pulsar的官網定義及發展史:Pulsar 是 Apache軟件基金會的頂級開源項目,是集消息、存儲、輕量化函數式計算為一體的下一代云原生分布式消息流組件,采用了計算與存儲分離的架構設計,支持多租戶、持久化存儲、多機房跨區域數據復制,具有高并發、高吞吐、低延時、高可擴,高可用等特性。

Pulsar 誕生于2012 雅虎公司內部,2016年開源交由Apache軟件基金會進行孵化,2018年成為Apache軟件基金會頂級開源項目。

2.9.2 Pulsar核心優勢

圖片

基于Pulsar支持存算分離,分區數據分散存儲、冷熱數據分層存儲、Broker無狀態等架構設計,讓Pulsar在超大數據規模場景下具備了資源利用率較高、快速響應業務增長、秒級故障恢復、實時流量均衡、支持海量數據存儲等明顯優勢。

2.9.3 Pulsar未來規劃

圖片

我們對Pulsar組件的規劃分為四個階段,包含項目啟動、穩定性建設、能力進階、穩定運營。

目前我們處在Pulsar組件穩定性建設階段。

2022年我們的目標是打造支持日均萬億級消息處理能力的Pulsar集群,完成分層存儲,監控告警一體化、KoP功能平臺化等擴展能力建設。

計劃2023年打造具備日均十萬億級消息處理能力的Pulsar集群,達到行業一流水準。并完成Pulsar broker容器化部署、Pulsar生態體系建設、Pulsar Sql和Pulsar Function的應用調研等擴展能力建設。

將在2024年實現日均數十萬億級消息處理能力的Pulsar集群,達到行業超一流的水準。

三、在線業務側消息中間件最佳實踐

3.1 RocketMQ簡介

圖片

RocketMQ是阿里巴巴于2012年開源的低延時、高并發、高可用、高可靠的分布式消息中間件,具有海量消息堆積、高吞吐、可靠重試等特性。

RocketMQ于2012年開源,2016年進入Apache孵化,于2017年成為Apache頂級項目。

3.2 RocketMQ在vivo內部使用現狀

圖片

vivo中間件團隊在2021年引入RocketMQ并且完成了高可用和平臺化建設。

當前分別在多個機房部署了多個集群供業務使用,每日消息量數百億。

集群分布在多個機房,每日消息量級也不低,高可用運維保障是有難度的。

3.3 vivo基于RocketMQ的高可用保障實踐經驗

3.3.1 集群部署架構介紹

圖片

為了更好的保障集群的高可用,我們采用了雙機房熱備的方式進行集群搭建。

我們會在兩個機房進行Broker的部署,業務Topic會默認分布在兩個機房,以此來保障在一個機房內的Broker節點異常時業務可以保持正常生產消費能力。

業務默認是會優先使用本機房的節點進行生產消費,只有在異常時才會自動快速完成跨機房的流量切換。

同時我們構建了一個BrokerController模塊用于實現Broker節點的主從切換,以此保障集群容量的快速恢復。

雙機房熱備模式有哪些優勢呢?

  • 第一,消息無需跨機房復制,降低對機房專線的依賴;
  • 第二,可以降低業務發送消息的延時,也可以提升業務的處理性能;

雙機房熱備模式的劣勢是每個機房的節點都需要冗余一定的buffer來支撐其它機房的節點異常時自動轉移過來的業務流量。

3.3.2 平臺系統架構介紹

圖片

集群雙機房熱備部署模式是消息平臺的高可用基石,在此之外我們還建設了多個平臺模塊來保障平臺的高可靠。

如上圖所示,

  • mq-rebalance模塊用于支撐集群流量的自動負載均衡;
  • mq-monitor模塊進行監控指標的采集并且與vivo內部的監控系統打通;
  • mq-recover模塊主要用于業務流量的降級和恢復處理;
  • mq-live模塊用于集群的探活。

另外我們還基于社區的connector組件建設了RabbitMQ-connector,實現了全球消息路由能力。

后續我們計劃建設基于gRPC協議建設通用的消息網關實現與集群的交互,以此屏蔽不同的消息中間件選型。

3.3.3 運維能力平臺化提升運維效率

圖片

主要有三點實踐:

第一,RocketMQ集群配置平臺化管理。RocketMQ集群含有較多的配置項,默認是通過節點文件管理的,在大規模集群運維過程中會存在維護困難的問題。

通過平臺化管理可以確保集群內配置統一,節點在啟動時從平臺中讀取到所有的配置,避免在集群部署時需要登錄到機器進行配置維護,并且我們支持了集群配置的動態生效。

第二,運維操作平臺化,例如Broker節點的流量摘除與掛載、Topic一鍵擴縮容等直接通過平臺支撐,實現便捷運維。

第三,集群維護平臺化,我們將集群與Broker節點的關系維護在平臺中,并且在首次部署時分配Broker節點所在集群,這樣在平臺上就有清晰的集群信息,便于我們維護管理多套集群。

3.3.4 平臺監控告警能力建設

圖片

圖片

  • 一方面,我們為每個集群都建設了如上圖所示的監控大盤。
    在監控大盤中有每個集群的生產消費流量、業務生產消費統計、發送耗時等信息,支撐我們快速觀察集群的運行狀態,方便日常巡檢。
    消息中間件作為在線業務請求處理鏈路中的關鍵環節,高可用尤為關鍵。監控大盤中的發送耗時信息是我們認為觀察集群是否穩定運行的最關鍵的指標。
  • 另一方面,我們對集群構建了豐富的監控告警能力。
    如上圖所示,我們分別對主機維度、集群維度、Topic/Group維度、客戶端維度都做了監控指標埋點上報。
    通過豐富的監控告警,我們可以及時發現問題并快速介入處理問題,詳細的監控告警也可以幫助我們快速確認問題根源。

3.4 業務從RabbitMQ無感遷移到RocketMQ實戰經驗

3.4.1 使用RocketMQ替換RabbitMQ根因分析

圖片

分別從可用性保障、性能容量、功能特性對比RabbitMQ和RocketMQ。

  • 可用性保障方面,RabbitMQ集群無負載均衡能力,隊列流量實際由集群內某個節點承載,存在瓶頸。其次RabbitMQ存在腦裂問題,從我們的運維經驗看如果出現網絡故障集群通常無法自動恢復,并且可能丟失少量數據。
  • 性能方面,RabbitMQ集群整體性能較低,并且不支持水平擴展。
  • 容量方面,從我們的運維經驗看,當消息堆積到千萬后,RabbitMQ性能就會有所下降。在大量消息堆積開始消費后,因為RabbitMQ的背壓流控機制,最終可能會因為集群負載過大導致發送限流深圳發送阻塞。
  • 功能特性方面,RabbitMQ不支持消費異常延時重投遞功能,也不支持消息軌跡、事務消息、順序消息等特性。

而RocketMQ在可用性保障、性能、容量、功能特性方面相對于RabbitMQ都是更優的。

  • 可用性保障方面,RocketMQ采用多主多從的松耦合架構部署,主從間通過同步雙寫保障消息的可靠性和一致性。
  • 性能方面,Topic可以分布在多個Broker中,實現水平擴容,并且RocketMQ支持從從節點拉取消息,讀寫分離的設計很好的支持了業務讀取冷數據的訴求。
  • 容量方面,RocketMQ使用磁盤存儲,磁盤容量就是消息的存儲容量,利用從從節點拉取冷數據特性,海量消息堆積對消息寫入性能基本無影響。
  • 功能特性方面,RocketMQ支持了消息軌跡、事務消息、順序消息等特性。

綜合分析,RocketMQ可以更好的支撐互聯網業務的訴求。

3.4.2 AMQP消息網關架構支撐實現無感遷移

圖片

由于當前RabbitMQ已經有數千個服務接入,為了讓業務不修改代碼即可遷移到RocketMQ,我們建設了一個AMQP消息網關來實現MQ協議的解析和流量轉發。

如上圖所示,MQ-Proxy模塊用于解析AMQP協議,代理客戶端的生產消費請求。

RabbitMQ的元數據信息存在在集群中,并且與RocketMQ元數據概念存在差異,為此我們建設了MQ-Meta模塊用于維護Exchange/Queue極其綁定關系等元數據信息,并且Proxy模塊可以動態感知元數據變更。

另外,為了更好的支撐業務訴求,我們對AMQP協議進行了擴展,支持了局部有序和批量消費能力。

3.4.3 RabbitMQ和RocketMQ元數據概念映射

圖片

為了更好的整合RabbitMQ和RocketMQ,我們對它們的元數據進行了一一對應。

其中將RabbitMQ的Exchange映射為RocketMQ的Topic,Queue映射為Group,RoutingKey映射為消息頭的一個參數,VirtualHost映射為Namespace。

為什么將RoutingKey映射為消息頭的一個參數而不是Tag呢?這是因為RabbitMQ的RoutingKey是有模糊匹配過濾能力的,而RocketMQ的Tag是不支持模糊匹配的。

另外我們還通過擴展使得RocketMQ也支持了RoutingKey過濾。

在經過多輪優化后,在1KB消息體場景下,一臺8C16G的機器在單發送下可支撐超過九萬的TPS,單推送可以支撐超過六萬TPS,性能上很好的滿足了當前業務的訴求。

3.5 在線業務消息中間件的未來規劃

圖片

主要有兩部分:

一方面,我們希望可以調研升級到RocketMQ5.0版本架構,RocketMQ5.0的存算分離架構可以更好的解決我們當前遇到的存儲瓶頸問題,Pop消費可以幫助我們實現更好的消費負載均衡。

我們還希望可以基于gRPC協議建設統一的消息網關能力。

另一方面,我們希望可以探索消息中間件容器化部署,提供消息中間件的快速彈性擴縮容能力,更好的支持業務需求。

四、總結

回顧vivo消息中間件演進歷史,我們完成了在線業務消息中間件從RabbitMQ遷移到RocketMQ,大數據消息中間件正在從kafka演進為使用pulsar支撐。

我們理解消息中間件將繼續朝著云原生演進,滿足業務快速增長的訴求,充分利用云的優勢為業務提供極致的體驗。

責任編輯:龐桂玉 來源: vivo互聯網技術
相關推薦

2024-05-07 07:58:10

數據架構大數據中間件架構

2016-12-14 11:44:25

阿里Docker大數據

2024-03-28 12:55:00

消息中間件RocketMQ

2018-07-27 09:52:10

監控阿里智能

2020-07-23 14:03:09

數據中心數據網絡

2025-02-26 08:30:00

2022-12-30 14:14:51

數據中心服務器

2011-12-16 09:54:17

網絡架構網絡架構系統架構系統

2020-12-11 19:52:06

數據中心超大規模數據中心

2023-02-14 11:24:36

2020-09-25 09:52:48

機器學習人工智能計算機

2024-04-30 07:00:00

公共云云策略云計算

2020-02-10 08:00:38

AI 數據人工智能

2021-03-16 10:28:41

數據中心IT云計算

2020-10-30 11:09:30

Pandas數據代碼

2023-06-29 10:10:06

Rocket MQ消息中間件

2023-10-24 07:50:18

消息中間件MQ

2019-06-20 13:37:20

存儲

2021-03-24 11:13:12

數據中心云計算物聯網

2023-04-26 00:59:49

嗶哩嗶哩工程優化
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 日韩视频免费看 | 日本一区二区视频 | 亚洲网站在线观看 | 成年人视频在线免费观看 | 国产成人免费在线观看 | 亚洲欧美日韩国产 | 黄色在线免费观看 | 国产一区二区三区在线免费观看 | 久久精品亚洲精品国产欧美 | 欧美不卡 | 欧美黄视频 | 日韩精品在线观看一区二区三区 | 麻豆91精品91久久久 | 99久久精品国产毛片 | 在线视频成人 | 国产亚洲精品综合一区 | 亚洲视频在线看 | 91视频精选 | 亚洲欧洲成人av每日更新 | 亚洲成人精品 | av色站| 亚洲精品久久久久久久久久久久久 | 欧美成人一区二区三区 | 国产日韩欧美一区二区 | 国产激情一区二区三区 | 91精品国产综合久久久久久丝袜 | 奇米四色影视 | 日韩中文字幕 | 免费观看色 | 成人精品在线视频 | 9久久精品| 欧美日韩在线观看一区 | 久草久 | 91久色 | 在线视频一区二区 | 午夜99| 99爱在线免费观看 | 国产伊人久久久 | 一区二区三区网站 | 免费黄色成人 | 亚洲视频一区在线播放 |