成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

2022雙十一籌備:一個細小疏忽差點釀成大禍

開發 架構
關于RocketMQ造成消息重復消費的幾種情況進行了一一解讀,那親愛的讀者朋友,你可以思考一下,集群大面積消息重復,消息消費抖動,你覺得會是哪種原因造成的呢?

1、背景

最近一周一來,總是有項目組中反饋遇到了消息重復推送的問題,連續出現單條消息短時被多個消費者消費的問題:

圖片

同時給出了證據,相同的msgId的消息被打印了兩條,并且兩者相隔7s。

圖片

講真,由于最近負責的事情比較多,并且RocketMQ又無法保證消息被重復消費,所以一開始并未引起我的充分重視,而是簡單的闡述了RocketMQ的設計原理不保證重復消費,需要消費端實現冪等。

但就是這個疏忽,后面集中爆發,整個集群中消費組消費絕大部分都出現了嚴重的抖動,造成消費組頻繁積壓,開啟了一波緊張的問題排查與線上止血操作,同時并引發了我尋根究底之旅。

關于為什么會出現整個MQ集群消費組消費抖動,在這里先丟一個懸念,本文想和大家先來聊聊RocketMQ哪些設計會導致消息消費的重復消費。

2、探究RocketMQ重復消費

在RocketMQ的設計理念中,消息發送、消息消費端的相關機制都會帶來消息重復消費,接下來我們分別探討。

2.1 消息發送時重試造成消息重復發送

在RocketMQ中,由于消息發送者無法實時感知Broker路由變化,為了保證消息發送的高可用性,RocketMQ在消息發送時引入了重新機制,消息在客戶端的發送簡要流程如下圖所示:

圖片

也就是如果發送消息的過程中,如果一臺broker發送抖動導致消息發送超時,發送超時并不代表消息沒有成功寫入到Broker,也有可能是寫入到Broker耗時比較長罷了,但客戶端等不及,判定發生失敗,則嘗試再找另外一臺Broker發送一次消息,這樣就會導致發送了兩條消息,并且這兩條消息的msgId,消息體都一樣,但在消息集群中存在了兩條消息,也就是這兩條消息的msgId相同,但offsetMsgId不同。

在這里我普及一下RocketMQ中兩個消息id的含義:

  • msgId 消息id,由發送者創建,全局唯一
  • offsetMsgId 消息偏移,由Broker創建,記載了服務端的地址與消息的物理偏移量。

如果出現消息發送者發送了兩條消息,就會出項文章開頭那種情況,日志中會出現兩條相同的日志。

那進一步,那如何判斷出現消息消費重復是否是消息發送端的問題呢?

其實非常簡單,我們只需要在打印消息體的日志中再增加如下三個屬性就可以輕而易舉的進行判別,這些屬性如下:

  • brokerName 消息存儲的broker的名稱
  • queueId 消息消費隊列ID
  • queueOffset 消息消費隊列偏移量

如果打印出來的消息,這幾個參數都相同,那就可以斷定是消息發送時重復發送了消息。

2.2消息消費時重復消費

介紹完消息發送時可能造成重復消費后,我們再來探究一下消息消費端是否會造成重復消費。

縱觀我對RocketMQ的理解,RocketMQ消息消費時造成消息消費重復主要有如下三個原因:

  • 最小位點提交機制
  • 消費位點批量提交
  • 消費組重平衡

接下來我們簡單說明一下,詳細的解讀建議參考我最近新上市的書籍《RocketMQ實戰》,目前5折優惠。

2.2.1最小位點提交機制

RocketMQ消息消費時采取了最小位點提交機制,說明如下圖所示:

圖片

例如消息消費線程池中的三個消費線程t1,t2,t3分別在處理消息偏移量1,2,3的消息,由于是并發消費,如果t3線程將msg3先消費完成,此時向服務端提交位點,是上報msg3的偏移量為最新的消費進度嗎?

顯然是不行的,因為一旦將3設置為最新的位點,但此時偏移量1,2的消息還未成功消費,一旦消費者重啟,那下一次將從偏移量為3的消息開始消費,這樣msg1,msg2這兩條消息將丟失。

所以RocketMQ為了確保消息消費端不發生消息丟失,采取了最小位點提交機制,也就是雖然線程t3將消息3消費完成,它要做的是在處理隊列中首先將msg3移除,然后選擇處理隊列中最小的偏移量作為位點進行上報,也就是t3線程消費完msg3后,會向服務端提交msg1的偏移量。

這樣也會帶來另外一個問題,消息重復消費,例如t3將msg3消費完成后,提交的位點是msg1的位點,如果消費者重啟,則會繼續從msg1開始消費,msg3就會再次被消費。

消息重復消費,消息丟失,兩害取其輕,確保消息不丟失是頭等大事,估在設計上就必然會出現消息重復消費。

2.2.2 消費為位點批量提交機制

消息這在消費完消息后,需要向服務端匯報位點,但如果每消費完一條消息,就向服務端發送位點提交請求,服務端性能肯定抗不住,故RocketMQ為了確保服務端的穩定性,采取了批量提交位點的機制,具體如下圖所示:

圖片

客戶端會首先在本地緩存位點信息,然后每隔5s向服務端發起一次位點提交,服務端收到客戶端位點提交機制后,只是會更新內存中的我點數據,然后每隔5s將內存中的數據持久到磁盤中。

由于位點信息同步的延遲,如果客戶端重啟,也會造成一部分位點信息丟失,同樣會出現重復消費。

2.2.3 重平衡導致消費重復消費

RocketMQ消費者在消費之前,首先需要對隊列進行負載均衡,RocketMQ進行隊列負載的一個基本原則:一個隊列在同一個時間只會分給一個消費者,一個消費者可以消費多個隊列,當消費者個數或者隊列個數發生變化時,就會觸發重平衡,示意圖如下所示:

圖片

首先,q3隊列是由c2負載消費的,但當新增一個消費者時,q3隊列分配給了c3,也就是c2消費者在處理q3一部分消息后,該隊列被丟棄,位點提交失敗,這樣部分消息在c3消費者上又被消費一次,同樣造成重復消費。

3、總結

關于RocketMQ造成消息重復消費的幾種情況進行了一一解讀,那親愛的讀者朋友,你可以思考一下,集群大面積消息重復,消息消費抖動,你覺得會是哪種原因造成的呢?

責任編輯:武曉燕 來源: 中間件興趣圈
相關推薦

2010-03-24 14:54:01

2024-06-27 08:36:12

Lodash對象類型isObject?

2021-10-08 07:50:57

軟件設計程序

2014-12-15 11:05:36

阿里云雙十一

2013-11-07 17:35:00

阿里COO雙十一阿里巴巴

2024-04-22 00:00:01

Redis集群

2018-08-21 11:00:20

前端正則表達式Java

2017-11-10 12:55:30

分析流量銷量

2013-11-13 13:44:48

淘寶雙十一背后

2016-01-04 11:18:38

存儲極客

2019-11-11 15:55:46

Java技術Redis

2013-12-17 09:50:34

雙十一

2014-12-01 10:01:19

2012-11-13 10:27:49

雙十一技術討論

2015-10-22 11:47:28

E店寶ERP雙十一

2021-06-07 10:20:31

2016-11-21 15:30:42

戴爾

2014-11-11 14:51:56

2013-11-14 10:05:50

點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 国内精品久久久久久久影视简单 | 久久久久国产一区二区三区不卡 | 国产成人综合网 | 亚洲精品国产第一综合99久久 | 国产精品久久欧美久久一区 | 日韩精品一区二区三区 | 一级黄色片一级黄色片 | 国产成人精品久久二区二区91 | 国产69精品久久久久777 | 日本三级在线网站 | 国产日韩精品一区二区 | 国产欧美日韩在线一区 | 亚洲三区视频 | 国产精品久久久久久久久图文区 | 欧美1区 | 国产日韩精品一区二区 | 可以在线看的黄色网址 | 日韩精品免费看 | 黄色大片观看 | 91人人看| 成人在线精品 | 精精国产xxxx视频在线播放 | 天天综合操 | 欧美精品久久久久 | 国产高清一区二区三区 | 特黄色一级毛片 | 午夜精品一区二区三区在线视频 | 欧美久久久久久久久 | 精品国产一区二区三区久久影院 | 精品久久久久一区二区国产 | www成年人视频 | 国产人久久人人人人爽 | 中文字幕成人av | www.婷婷| 热久久久久 | 国产精品亚洲一区二区三区在线观看 | 精品国产成人 | 日韩视频在线观看一区二区 | 成人激情视频免费在线观看 | 久久久国产精品入口麻豆 | 日韩中文字幕视频在线观看 |