成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

MQ 冪等、去重,有哪些通用的解決方案?

開發(fā) 前端
消息中間件是分布式系統(tǒng)常用的組件,無論是異步化、解耦、削峰等都有廣泛的應用價值。

前言

消息中間件是分布式系統(tǒng)常用的組件,無論是異步化、解耦、削峰等都有廣泛的應用價值。我們通常會認為,消息中間件是一個可靠的組件——這里所謂的可靠是指,只要我把消息成功投遞到了消息中間件,消息就不會丟失,即消息肯定會至少保證消息能被消費者成功消費一次,這是消息中間件最基本的特性之一,也就是我們常說的“AT LEAST ONCE”,即消息至少會被“成功消費一遍”。

舉個例子,一個消息M發(fā)送到了消息中間件,消息投遞到了消費程序A,A接受到了消息,然后進行消費,但在消費到一半的時候程序重啟了,這時候這個消息并沒有標記為消費成功,這個消息還會繼續(xù)投遞給這個消費者,直到其消費成功了,消息中間件才會停止投遞。

然而這種可靠的特性導致,消息可能被多次地投遞。舉個例子,還是剛剛這個例子,程序A接受到這個消息M并完成消費邏輯之后,正想通知消息中間件“我已經消費成功了”的時候,程序就重啟了,那么對于消息中間件來說,這個消息并沒有成功消費過,所以他還會繼續(xù)投遞。這時候對于應用程序A來說,看起來就是這個消息明明消費成功了,但是消息中間件還在重復投遞。

這在RockectMQ的場景來看,就是同一個messageId的消息重復投遞下來了。

基于消息的投遞可靠(消息不丟)是優(yōu)先級更高的,所以消息不重的任務就會轉移到應用程序自我實現,這也是為什么RocketMQ的文檔里強調的,消費邏輯需要自我實現冪等。背后的邏輯其實就是:不丟和不重是矛盾的(在分布式場景下),但消息重復是有解決方案的,而消息丟失是很麻煩的。

簡單的消息去重解決方案

例如:假設我們業(yè)務的消息消費邏輯是:插入某張訂單表的數據,然后更新庫存:

insert into t_order values .....
update t_inv set count = count-1 where good_id = 'good123';

要實現消息的冪等,我們可能會采取這樣的方案:

select * from t_order where order_no = 'order123'

if(order != null) {
return ;//消息重復,直接返回

}

這對于很多情況下,的確能起到不錯的效果,但是在并發(fā)場景下,還是會有問題。

并發(fā)重復消息

假設這個消費的所有代碼加起來需要1秒,有重復的消息在這1秒內(假設100毫秒)內到達(例如生產者快速重發(fā),Broker重啟等),那么很可能,上面去重代碼里面會發(fā)現,數據依然是空的(因為上一條消息還沒消費完,還沒成功更新訂單狀態(tài)),

那么就會穿透掉檢查的擋板,最后導致重復的消息消費邏輯進入到非冪等安全的業(yè)務代碼中,從而引發(fā)重復消費的問題(如主鍵沖突拋出異常、庫存被重復扣減而沒釋放等)

并發(fā)去重的解決方案之一

要解決上面并發(fā)場景下的消息冪等問題,一個可取的方案是開啟事務把select 改成 select for update語句,把記錄進行鎖定。

select * from t_order where order_no = 'THIS_ORDER_NO' for update  //開啟事務
if(order.status != null) {
return ;//消息重復,直接返回
}

但這樣消費的邏輯會因為引入了事務包裹而導致整個消息消費可能變長,并發(fā)度下降。

當然還有其他更高級的解決方案,例如更新訂單狀態(tài)采取樂觀鎖,更新失敗則消息重新消費之類的。但這需要針對具體業(yè)務場景做更復雜和細致的代碼開發(fā)、庫表設計,不在本文討論的范圍。

但無論是select for update, 還是樂觀鎖這種解決方案,實際上都是基于業(yè)務表本身做去重,這無疑增加了業(yè)務開發(fā)的復雜度, 一個業(yè)務系統(tǒng)里面很大部分的請求處理都是依賴MQ的,如果每個消費邏輯本身都需要基于業(yè)務本身而做去重/冪等的開發(fā)的話,這是繁瑣的工作量。本文希望探索出一個通用的消息冪等處理的方法,從而抽象出一定的工具類用以適用各個業(yè)務場景。

Exactly Once

在消息中間件里,有一個投遞語義的概念,而這個語義里有一個叫”Exactly Once”,即消息肯定會被成功消費,并且只會被消費一次。以下是阿里云里對Exactly Once的解釋:

Exactly-Once 是指發(fā)送到消息系統(tǒng)的消息只能被消費端處理且僅處理一次,即使生產端重試消息發(fā)送導致某消息重復投遞,該消息在消費端也只被消費一次。

在我們業(yè)務消息冪等處理的領域內,可以認為業(yè)務消息的代碼肯定會被執(zhí)行,并且只被執(zhí)行一次,那么我們可以認為是Exactly Once。

但這在分布式的場景下想找一個通用的方案幾乎是不可能的。不過如果是針對基于數據庫事務的消費邏輯,實際上是可行的。

基于關系數據庫事務插入消息表

假設我們業(yè)務的消息消費邏輯是:更新MySQL數據庫的某張訂單表的狀態(tài):

update t_order set status = 'SUCCESS' where order_no= 'order123';

要實現Exaclty Once即這個消息只被消費一次(并且肯定要保證能消費一次),我們可以這樣做:在這個數據庫中增加一個消息消費記錄表,把消息插入到這個表,并且把原來的訂單更新和這個插入的動作放到同一個事務中一起提交,就能保證消息只會被消費一遍了。

  1. 開啟事務
  2. 插入消息表(處理好主鍵沖突的問題)
  3. 更新訂單表(原消費邏輯)
  4. 提交事務

說明:

  1. 這時候如果消息消費成功并且事務提交了,那么消息表就插入成功了,這時候就算RocketMQ還沒有收到消費位點的更新再次投遞,也會插入消息失敗而視為已經消費過,后續(xù)就直接更新消費位點了。這保證我們消費代碼只會執(zhí)行一次。
  2. 如果事務提交之前服務掛了(例如重啟),對于本地事務并沒有執(zhí)行所以訂單沒有更新,消息表也沒插入成功;而對于RocketMQ服務端來說,消費位點也沒更新,所以消息還會繼續(xù)投遞下來,投遞下來發(fā)現這個消息插入消息表也是成功的,所以可以繼續(xù)消費。這保證了消息不丟失。

事實上,阿里云ONS的EXACTLY-ONCE語義的實現上,就是類似這個方案基于數據庫的事務特性實現的。更多詳情可參考:https://help.aliyun.com/document_detail/102777.html

基于這種方式,的確這是有能力拓展到不同的應用場景,因為他的實現方案與具體業(yè)務本身無關——而是依賴一個消息表。

但是這里有它的局限性

  1. 消息的消費邏輯必須是依賴于關系型數據庫事務。如果消費的消費過程中還涉及其他數據的修改,例如Redis這種不支持事務特性的數據源,則這些數據是不可回滾的。
  2. 數據庫的數據必須是在一個庫,跨庫無法解決

注:業(yè)務上,消息表的設計不應該以消息ID作為標識,而應該以業(yè)務的業(yè)務主鍵作為標識更為合理,以應對生產者的重發(fā)。阿里云上的消息去重只是RocketMQ的messageId,在生產者因為某些原因手動重發(fā)(例如上游針對一個交易重復請求了)的場景下起不到去重/冪等的效果(因消息id不同)。

更復雜的業(yè)務場景

如上所述,這種方式Exactly Once語義的實現,實際上有很多局限性,這種局限性使得這個方案基本不具備廣泛應用的價值。并且由于基于事務,可能導致鎖表時間過長等性能問題。

例如我們以一個比較常見的一個訂單申請的消息來舉例,可能有以下幾步(以下統(tǒng)稱為步驟X):

  1. 檢查庫存(RPC)
  2. 鎖庫存(RPC)
  3. 開啟事務,插入訂單表(MySQL)
  4. 調用某些其他下游服務(RPC)
  5. 更新訂單狀態(tài)
  6. commit 事務(MySQL)

這種情況下,我們如果采取消息表+本地事務的實現方式,消息消費過程中很多子過程是不支持回滾的,也就是說就算我們加了事務,實際上這背后的操作并不是原子性的。怎么說呢,就是說有可能第一條小在經歷了第二步鎖庫存的時候,服務重啟了,這時候實際上庫存是已經在另外的服務里被鎖定了,這并不能被回滾。當然消息還會再次投遞下來,要保證消息能至少消費一遍,換句話說,鎖庫存的這個RPC接口本身依舊要支持“冪等”。

再者,如果在這個比較耗時的長鏈條場景下加入事務的包裹,將大大的降低系統(tǒng)的并發(fā)。所以通常情況下,我們處理這種場景的消息去重的方法還是會使用一開始說的業(yè)務自己實現去重邏輯的方式,如前面加select for update,或者使用樂觀鎖。

那我們有沒有方法抽取出一個公共的解決方案,能兼顧去重、通用、高性能呢?

拆解消息執(zhí)行過程

其中一個思路是把上面的幾步,拆解成幾個不同的子消息,例如:

  1. 庫存系統(tǒng)消費A:檢查庫存并做鎖庫存,發(fā)送消息B給訂單服務
  2. 訂單系統(tǒng)消費消息B:插入訂單表(MySQL),發(fā)送消息C給自己(下游系統(tǒng))消費
  3. 下游系統(tǒng)消費消息C:處理部分邏輯,發(fā)送消息D給訂單系統(tǒng)
  4. 訂單系統(tǒng)消費消息D:更新訂單狀態(tài)

注:上述步驟需要保證本地事務和消息是一個事務的(至少是最終一致性的),這其中涉及到分布式事務消息相關的話題,不在本文論述。

可以看到這樣的處理方法會使得每一步的操作都比較原子,而原子則意味著是小事務,小事務則意味著使用消息表+事務的方案顯得可行。

然而,這太復雜了!這把一個本來連續(xù)的代碼邏輯割裂成多個系統(tǒng)多次消息交互!那還不如業(yè)務代碼層面上加鎖實現呢。

更通用的解決方案

上面消息表+本地事務的方案之所以有其局限性和并發(fā)的短板,究其根本是因為它依賴于關系型數據庫的事務,且必須要把事務包裹于整個消息消費的環(huán)節(jié)。

如果我們能不依賴事務而實現消息的去重,那么方案就能推廣到更復雜的場景例如:RPC、跨庫等。

例如,我們依舊使用消息表,但是不依賴事務,而是針對消息表增加消費狀態(tài),是否可以解決問題呢?

基于消息冪等表的非事務方案

以上是去事務化后的消息冪等方案的流程,可以看到,此方案是無事務的,而是針對消息表本身做了狀態(tài)的區(qū)分:消費中、消費完成。只有消費完成的消息才會被冪等處理掉。而對于已有消費中的消息,后面重復的消息會觸發(fā)延遲消費(在RocketMQ的場景下即發(fā)送到RETRY TOPIC),之所以觸發(fā)延遲消費是為了控制并發(fā)場景下,第二條消息在第一條消息沒完成的過程中,去控制消息不丟(如果直接冪等,那么會丟失消息(同一個消息id的話),因為上一條消息如果沒有消費完成的時候,第二條消息你已經告訴broker成功了,那么第一條消息這時候失敗broker也不會重新投遞了)

上面的流程不再細說,后文有github源碼的地址,讀者可以參考源碼的實現,這里我們回頭看看我們一開始想解決的問題是否解決了:

  1. 消息已經消費成功了,第二條消息將被直接冪等處理掉(消費成功)。
  2. 并發(fā)場景下的消息,依舊能滿足不會出現消息重復,即穿透冪等擋板的問題。
  3. 支持上游業(yè)務生產者重發(fā)的業(yè)務重復的消息冪等問題。

關于第一個問題已經很明顯已經解決了,在此就不討論了。

關于第二個問題是如何解決的?主要是依靠插入消息表的這個動作做控制的,假設我們用MySQL作為消息表的存儲媒介(設置消息的唯一ID為主鍵),那么插入的動作只有一條消息會成功,后面的消息插入會由于主鍵沖突而失敗,走向延遲消費的分支,然后后面延遲消費的時候就會變成上面第一個場景的問題。

關于第三個問題,只要我們設計去重的消息鍵讓其支持業(yè)務的主鍵(例如訂單號、請求流水號等),而不僅僅是messageId即可。所以也不是問題。

此方案是否有消息丟失的風險?

如果細心的讀者可能會發(fā)現這里實際上是有邏輯漏洞的,問題出在上面聊到的個三問題中的第2個問題(并發(fā)場景),在并發(fā)場景下我們依賴于消息狀態(tài)是做并發(fā)控制使得第2條消息重復的消息會不斷延遲消費(重試)。但如果這時候第1條消息也由于一些異常原因(例如機器重啟了、外部異常導致消費失敗)沒有成功消費成功呢?也就是說這時候延遲消費實際上每次下來看到的都是消費中的狀態(tài),最后消費就會被視為消費失敗而被投遞到死信Topic中(RocketMQ默認可以重復消費16次)。

有這種顧慮是正確的!對于此,我們解決的方法是,插入的消息表必須要帶一個最長消費過期時間,例如10分鐘,意思是如果一個消息處于消費中超過10分鐘,就需要從消息表中刪除(需要程序自行實現)。所以最后這個消息的流程會是這樣的:

更靈活的消息表存儲媒介

我們這個方案實際上沒有事務的,只需要一個存儲的中心媒介,那么自然我們可以選擇更靈活的存儲媒介,例如Redis。使用Redis有兩個好處:

  1. 性能上損耗更低
  2. 上面我們講到的超時時間可以直接利用Redis本身的ttl實現

當然Redis存儲的數據可靠性、一致性等方面是不如MySQL的,需要用戶自己取舍。

源碼:RocketMQDedupListener

以上方案針對RocketMQ的Java實現已經開源放到Github中,具體的使用文檔可以參考https://github.com/Jaskey/RocketMQDedupListener ,

以下僅貼一個Readme中利用Redis去重的使用樣例,用以意業(yè)務中如果使用此工具加入消息去重冪等的是多么簡單:

//利用Redis做冪等表
DefaultMQPushConsumer consumer = new DefaultMQPushConsumer("TEST-APP1");
consumer.subscribe("TEST-TOPIC", "*");

String appName = consumer.getConsumerGroup();// 大部分情況下可直接使用consumer group名
StringRedisTemplate stringRedisTemplate = null;// 這里省略獲取StringRedisTemplate的過程
DedupConfig dedupConfig = DedupConfig.enableDedupConsumeConfig(appName, stringRedisTemplate);
DedupConcurrentListener messageListener = new SampleListener(dedupConfig);

consumer.registerMessageListener(messageListener);
consumer.start();

以上代碼大部分是原始RocketMQ的必須代碼,唯一需要修改的僅僅是創(chuàng)建一個DedupConcurrentListener示例,在這個示例中指明你的消費邏輯和去重的業(yè)務鍵(默認是messageId)。

更多使用詳情請參考Github上的說明。

這種實現是否一勞永逸?

實現到這里,似乎方案挺完美的,所有的消息都能快速的接入去重,且與具體業(yè)務實現也完全解耦。那么這樣是否就完美的完成去重的所有任務呢?

很可惜,其實不是的。原因很簡單:因為要保證消息至少被成功消費一遍,那么消息就有機會消費到一半的時候失敗觸發(fā)消息重試的可能。還是以上面的訂單流程X:

  • 檢查庫存(RPC)
  • 鎖庫存(RPC)
  • 開啟事務,插入訂單表(MySQL)
  • 調用某些其他下游服務(RPC)
  • 更新訂單狀態(tài)
  • commit 事務(MySQL)

當消息消費到步驟3的時候,我們假設MySQL異常導致失敗了,觸發(fā)消息重試。因為在重試前我們會刪除冪等表的記錄,所以消息重試的時候就會重新進入消費代碼,那么步驟1和步驟2就會重新再執(zhí)行一遍。如果步驟2本身不是冪等的,那么這個業(yè)務消息消費依舊沒有做好完整的冪等處理。

本實現方式的價值?

那么既然這個并不能完整的完成消息冪等,還有什么價值呢?價值可就大了!雖然這不是解決消息冪等的銀彈(事實上,軟件工程領域里基本沒有銀彈),但是他能以便捷的手段解決:

1.各種由于Broker、負載均衡等原因導致的消息重投遞的重復問題

2.各種上游生產者導致的業(yè)務級別消息重復問題

3.重復消息并發(fā)消費的控制窗口問題,就算重復,重復也不可能同一時間進入消費邏輯

一些其他的消息去重的建議

也就是說,使用這個方法能保證正常的消費邏輯場景下(無異常,無異常退出),消息的冪等工作全部都能解決,無論是業(yè)務重復,還是rocketmq特性帶來的重復。

事實上,這已經能解決99%的消息重復問題了,畢竟異常的場景肯定是少數的。那么如果希望異常場景下也能處理好冪等的問題,可以做以下工作降低問題率:

  1. 消息消費失敗做好回滾處理。如果消息消費失敗本身是帶回滾機制的,那么消息重試自然就沒有副作用了。
  2. 消費者做好優(yōu)雅退出處理。這是為了盡可能避免消息消費到一半程序退出導致的消息重試。
  3. 一些無法做到冪等的操作,至少要做到終止消費并告警。例如鎖庫存的操作,如果統(tǒng)一的業(yè)務流水鎖成功了一次庫存,再觸發(fā)鎖庫存,如果做不到冪等的處理,至少要做到消息消費觸發(fā)異常(例如主鍵沖突導致消費異常等)
  4. 在#3做好的前提下,做好消息的消費監(jiān)控,發(fā)現消息重試不斷失敗的時候,手動做好#1的回滾,使得下次重試消費成功。
責任編輯:姜華 來源: 今日頭條
相關推薦

2021-08-04 17:40:42

代碼Java消息冪等

2025-06-05 00:00:00

向量數據庫線程安全Redis

2025-04-24 11:09:13

2024-09-26 00:00:10

死鎖阿里面試

2020-10-18 07:25:55

MQ消息冪等架構

2021-07-15 13:57:34

災難恢復DRaaS數據中心

2022-04-07 07:40:40

線程安全變量

2025-01-13 05:00:00

2024-11-01 09:28:02

2019-01-24 09:04:50

Kubernetes存儲容器

2019-09-09 10:09:51

分布式事務 數據庫

2023-05-19 13:58:12

2025-04-27 02:22:00

分頁項目開發(fā)

2023-10-30 08:00:00

區(qū)塊鏈去中心化

2023-10-17 08:01:46

MQ消息重試

2021-12-03 16:53:22

移動云等保2.0

2012-01-12 10:18:04

2021-04-29 17:58:21

戴爾

2021-02-02 09:59:22

接口前端通用

2011-11-23 15:12:27

趨勢科技OfficeScan
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 天天操天天干天天曰 | 亚洲人成人一区二区在线观看 | 黄色免费在线观看网站 | 人人射人人 | 国产第1页| 国产一级特黄aaa大片评分 | 欧美黄色片| 久久岛国 | 欧美一区二区三区在线 | 中文字幕亚洲视频 | 国产美女自拍视频 | 亚洲 欧美 另类 综合 偷拍 | 国产精品不卡一区 | 久久精品小视频 | 亚洲精品乱码久久久久久按摩 | 国产一区二区三区久久久久久久久 | wwwww在线观看 | 国产乱肥老妇国产一区二 | 国产精品不卡一区 | 亚洲乱码国产乱码精品精的特点 | 欧美精品久久久久久久久久 | 91久久久久 | 天堂久久久久久久 | 91精品国产91久久久久久密臀 | 久久涩涩| 亚洲精品大片 | 日韩在线小视频 | 欧美亚州综合 | 黄色免费av | 国产一区久久 | 黄色欧美视频 | 在线看91| 日韩精品一区二区三区 | 精品视频一区二区三区 | 亚洲电影免费 | 中文字幕一区在线观看视频 | 亚洲精品视频免费观看 | 国产99热| 精品视频一区二区三区在线观看 | 亚洲第一黄色网 | 中文字幕亚洲精品在线观看 |