成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

MongoDB Stream是如何實現完美數據增量遷移的?

數據庫 其他數據庫 MongoDB
MongoDB 3.6版本開始便提供了Change Stream功能,支持對數據變更記錄做監聽。這為實現數據同步及轉換處理提供了更大的便利,下面將探討如何利用Change Stream實現數據的增量遷移。

一、背景介紹

最近微服務架構火得不行,但本質上也只是風口上的一個熱點詞匯。

作為筆者的經驗來說,想要應用一個新的架構需要帶來的變革成本是非常高的。

盡管如此,目前還是有許多企業踏上了服務化改造的道路,這其中則免不了“舊改”的各種繁雜事。

所謂的“舊改”,就是把現有的系統架構來一次重構,拆分成多個細粒度的服務后,然后找時間升級割接一把,讓新系統上線。這其中,數據的遷移往往會成為一個非常重要且繁雜的活兒。

拆分服務時數據遷移的挑戰在哪?

  • 首先是難度大,做一個遷移方案需要了解項目的前身今世,評估遷移方案、技術工具等;
  • 其次是成本高。由于新舊系統數據結構是不一樣的,需要定制開發遷移轉化功能,很難有一個通用的工具能一鍵遷移;
  • 再者對于一些容量大、可靠性要求高的系統,要能夠不影響業務,出了問題還能追溯,因此方案上還得往復雜了想。

二、常見方案

按照遷移的方案及流程,可將數據遷移分為三類:

1、停機遷移

最簡單的方案,停機遷移的順序如下:

采用停機遷移的好處是流程操作簡單,工具成本低,然而缺點也很明顯,遷移過程中業務是無法訪問的,因此只適合于規格小、允許停服的場景。

2、業務雙寫

業務雙寫是指對現有系統先進行改造升級,支持同時對新庫和舊庫進行寫入。之后再通過數據遷移工具對舊數據做全量遷移,待所有數據遷移轉換完成后切換到新系統。

示意圖:

 

業務雙寫的方案是平滑的,對線上業務影響極小,在出現問題的情況下可重新來過,操作壓力也會比較小。

筆者在早些年前嘗試過這樣的方案,整個遷移過程確實非常順利,但實現該方案比較復雜,需要對現有的代碼進行改造并完成新數據的轉換及寫入,對于開發人員的要求較高。在業務邏輯清晰、團隊對系統有足夠的把控能力的場景下適用。

3、增量遷移

增量遷移的基本思路是先進行全量的遷移轉換,待完成后持續進行增量數據的處理,直到數據追平后切換系統。

示意圖:

 

關鍵點:

要求系統支持增量數據的記錄。對于MongoDB可以利用oplog實現這點,為避免全量遷移過程中oplog被沖掉,在開始遷移前就必須開始監聽oplog,并將變更全部記錄下來;如果沒有辦法,需要從應用層上考慮,比如為所有的表(集合)記錄下updateTime這樣的時間戳,或者升級應用并支持將修改操作單獨記錄下來。

增量數據的回放是持續的。在所有的增量數據回放轉換過程中,系統仍然會產生新的增量數據,這要求遷移工具能做到將增量數據持續回放并將之追平,之后才能做系統切換。

MongoDB 3.6版本開始便提供了Change Stream功能,支持對數據變更記錄做監聽。這為實現數據同步及轉換處理提供了更大的便利,下面將探討如何利用Change Stream實現數據的增量遷移。

三、Change Stream介紹

Chang Stream(變更記錄流)是指collection(數據庫集合)的變更事件流,應用程序通過db.collection.watch()這樣的命令可以獲得被監聽對象的實時變更。

在該特性出現之前,你可以通過拉取oplog達到同樣的目的;但oplog的處理及解析相對復雜且存在被回滾的風險,如果使用不當的話還會帶來性能問題。Change Stream可以與aggregate framework結合使用,對變更集進行進一步的過濾或轉換。

參考鏈接:https://docs.mongodb.com/manual/aggregation/

由于Change Stream利用了存儲在oplog中的信息,因此對于單進程部署的MongoDB無法支持Change Stream功能,其只能用于啟用了副本集的獨立集群或分片集群。

監聽的目標

變更事件

一個Change Stream Event的基本結構如下所示:

字段說明:

Change Steram支持的變更類型有以下幾個:

利用以下的shell腳本,可以打印出集合 T_USER上的變更事件:

下面提供一些樣例,感受一下:

insert事件

update事件

replace事件

delete事件

invalidate事件

更多的Change Event信息可以參考:https://docs.mongodb.com/manual/reference/change-events/

四、實現增量遷移

本次設計了一個簡單的論壇帖子遷移樣例,用于演示如何利用Change Stream實現***的增量遷移方案。

背景如下:

現有的系統中有一批帖子,每個帖子都屬于一個頻道(channel),如下表:

新系統中頻道字段將采用英文簡稱,同時要求能支持平滑升級。根據前面篇幅的敘述,我們將使用Change Stream功能實現一個增量遷移的方案。

相關表的轉換如下圖:

原理

topic是帖子原表,在遷移開始前將開啟watch任務持續獲得增量數據,并記錄到 topic_incr表中;接著執行全量的遷移轉換,之后再持續對增量表數據進行遷移,直到無新的增量為止。

接下來我們使用Java程序來完成相關代碼,mongodb-java--driver在3.6版本后才支持watch功能,需要確保升級到對應版本:

定義Channel頻道的轉換表:

 

  1. public static enum Channel {  
  2.     Food("美食"),  
  3.     Emotion("情感"), 
  4.     Pet("寵物"),  
  5.     House("家居"),  
  6.     Marriage("征婚"),  
  7.     Education("教育"),  
  8.     Travel("旅游"
  9.  
  10.     private final String oldName;  
  11.     public String getOldName() {  
  12.         return oldName;  
  13.     }  
  14.     private Channel(String oldName) {  
  15.         this.oldName = oldName;  
  16.     }  
  17.     /**  
  18.      * 轉換為新的名稱  
  19.      *  
  20.      * @param oldName  
  21.      * @return  
  22.      */  
  23.     public static String toNewName(String oldName) {  
  24.         for (Channel channel : values()) {  
  25.             if (channel.oldName.equalsIgnoreCase(oldName)) {  
  26.                 return channel.name();  
  27.             }  
  28.         }  
  29.         return "" 
  30.     }  
  31.     /**  
  32.      * 返回一個隨機頻道  
  33.      *  
  34.      * @return  
  35.      */  
  36.     public static Channel random() {  
  37.         Channel[] channels = values();  
  38.         int idx = (int) (Math.random() * channels.length);  
  39.         return channels[idx];  
  40.     }  

為topic表預寫入1w條記錄:

開啟監聽任務,將topic上的所有變更寫入到增量表:

代碼中通過watch命令獲得一個MongoCursor對象,用于遍歷所有的變更。

FullDocument.UPDATE_LOOKUP選項啟用后,在update變更事件中將攜帶完整的文檔數據(FullDocument)。

watch()命令提交后,mongos會與分片上的mongod(主節點)建立訂閱通道,這可能需要花費一點時間。

為了模擬線上業務的真實情況,啟用幾個線程對topic表進行持續寫操作:

 

ChangeTask實現邏輯如下:

每一個變更任務會不斷對topic產生寫操作,觸發一系列ChangeEvent產生:

  • doInsert:生成隨機頻道的topic后,執行insert;
  • doUpdate:隨機取得一個topic,將其channel字段改為隨機值,執行update;
  • doReplace:隨機取得一個topic,將其channel字段改為隨機值,執行replace;
  • doDelete:隨機取得一個topic,執行delete。

以doUpdate為例,實現代碼如下:

 

啟動一個全量遷移任務,將topic表中數據遷移到topic_new新表:

在全量遷移開始前,先獲得當前時刻的的*** _id 值(可以將此值記錄下來)作為終點,隨后逐個完成遷移轉換。

在全量遷移完成后,便開始***一步:增量遷移。

注:增量遷移過程中,變更操作仍然在進行。

 

  1. final MongoCollection<Document> topicIncrCollection = getCollection(coll_topic_incr);  
  2. final MongoCollection<Document> topicNewCollection = getCollection(coll_topic_new);  
  3. ObjectId currentId = null 
  4. Document sort = new Document("_id", 1);  
  5. MongoCursor<Document> cursor = null 
  6. // 批量大小  
  7. int batchSize = 100;AtomicInteger count = new AtomicInteger(0);  
  8. try {  
  9.     while (true) {  
  10.         boolean isWatchTaskStillRunning = watchFlag.getCount() > 0;  
  11.         // 按ID增量分段拉取  
  12.         if (currentId == null) {  
  13.             cursor = topicIncrCollection.find().sort(sort).limit(batchSize).iterator();  
  14.         } else {  
  15.             cursor = topicIncrCollection.find(new Document("_id", new Document("$gt", currentId)))  
  16.                     .sort(sort).limit(batchSize).iterator();  
  17.         }  
  18.         boolean hasIncrRecord = false 
  19.         while (cursor.hasNext()) {  
  20.             hasIncrRecord = true 
  21.             Document incrDoc = cursor.next();  
  22.             OperationType opType = OperationType.fromString(incrDoc.getString(field_op));  
  23.             ObjectId docId = incrDoc.getObjectId(field_key);  
  24.             // 記錄當前ID  
  25.             currentId = incrDoc.getObjectId("_id"); 
  26.             if (opType == OperationType.DELETE) {  
  27.                 topicNewCollection.deleteOne(new Document("_id", docId));  
  28.             } else {  
  29.                 Document doc = incrDoc.get(field_data, Document.class);  
  30.                 // channel轉換  
  31.                 String oldChannel = doc.getString(field_channel);  
  32.                 doc.put(field_channel, Channel.toNewName(oldChannel));  
  33.                 // 啟用upsert  
  34.                 UpdateOptions options = new UpdateOptions().upsert(true);  
  35.                 topicNewCollection.replaceOne(new Document("_id", docId),  
  36.                         incrDoc.get(field_data, Document.class), options);  
  37.             }  
  38.             if (count.incrementAndGet() % 10 == 0) {  
  39.                 logger.info("IncrTransferTask progress, count: {}"count.get());  
  40.             }  
  41.         }  
  42.         // 當watch停止工作(沒有更多變更),同時也沒有需要處理的記錄時,跳出  
  43.         if (!isWatchTaskStillRunning && !hasIncrRecord) {  
  44.             break;  
  45.         }  
  46.         sleep(200);  
  47.     } 
  48.  } catch (Exception e) {  
  49.     logger.error("IncrTransferTask ERROR", e);  

增量遷移的實現是一個不斷tail的過程,利用 **_id 字段的有序特性 ** 進行分段遷移;即記錄下當前處理的_id值,循環拉取在該_id值之后的記錄進行處理。

增量表(topic_incr)中除了DELETE變更之外,其余的類型都保留了整個文檔,因此可直接利用replace + upsert追加到新表。

***,運行整個程序。

查看topic表和topic_new表,發現兩者數量是相同的。為了進一步確認一致性,我們對兩個表的分別做一次聚合統計:

topic表

topic_new表

前者輸出結果:

后者輸出結果:

前后對比的結果是一致的。

五、后續優化

前面的章節演示了一個增量遷移的樣例,在投入到線上運行之前,這些代碼還得繼續優化:

  • 寫入性能,線上的數據量可能會達到億級,在全量、增量遷移時應采用合理的批量化處理;另外可以通過增加并發線程,添置更多的Worker,分別對不同業務庫、不同表進行處理以提升效率。增量表存在冪等性,即回放多次其最終結果還是一致的,但需要保證表級有序,即一個表同時只有一個線程在進行增量回放。
  • 容錯能力,一旦watch監聽任務出現異常,要能夠從更早的時間點開始(使用startAtOperationTime參數),而如果寫入時發生失敗,要支持重試。
  • 回溯能力,做好必要的跟蹤記錄,比如將轉換失敗的ID號記錄下來,舊系統的數據需要保留,以免在事后追究某個數據問題時找不著北。
  • 數據轉換,新舊業務的差異不會很簡單,通常需要借助大量的轉換表來完成。

一致性檢查,需要根據業務特點開發自己的一致性檢查工具,用來證明遷移后數據達到想要的一致性級別。

BTW,數據遷移一定要結合業務特性、架構差異來做考慮,否則還是在耍流氓。

六、小結

服務化系統中擴容、升級往往會進行數據遷移,對于業務量大,中斷敏感的系統通常會采用平滑遷移的方式。

MongoDB 3.6版本后提供了Change Stream功能以支持應用訂閱數據的變更事件流,本文使用Stream功能實現了增量平滑遷移的例子,這是一次嘗試,相信后續這樣的應用場景會越來越多。

附參考文檔

https://docs.mongodb.com/manual/changeStreams/

  • Use-ChangeStream To Handle Temperature

https://www.percona.com/blog/2017/11/22/mongodb-3-6-change-streams-nest-temperature-fan-control-use-case/ 

 

責任編輯:龐桂玉 來源: DBAplus社群
相關推薦

2015-01-26 14:08:37

USP服務器數據中心

2025-05-06 11:56:21

2023-07-27 07:35:55

HTTP持久化服務器

2021-07-09 18:26:41

PythonMySQL MongoDB

2019-01-02 16:40:13

MongoDBPostgres數據庫

2024-04-19 08:32:07

Redis緩存數據庫

2009-01-16 14:22:27

ETLExtract數據增量抽取

2011-04-14 10:18:20

數據遷移

2009-03-30 14:30:52

2023-08-11 08:34:40

開發工具

2021-04-22 11:22:12

云計算數據遷移混合云

2017-10-20 08:45:15

數據庫MongoDBMySQL

2015-07-27 09:32:36

BAT數據中心

2024-11-05 15:02:41

2014-01-16 16:58:06

cdn

2014-11-24 09:23:22

華為數據中心

2010-09-15 14:45:30

數據保護

2010-08-12 09:43:31

CassandraMongoDB

2023-10-19 16:39:38

2021-09-17 12:50:10

MySQL數據庫ACID
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 亚洲视频 欧美视频 | 成人3d动漫一区二区三区91 | 久久福利 | 国产精品免费av | 99免费| 在线亚洲精品 | 亚州精品天堂中文字幕 | 精品久久一区 | 少妇黄色| 欧美日韩精品一区二区 | 日韩久久久久久 | 亚洲福利网 | 中文字幕不卡在线88 | www.国产精| 91成人精品| 麻豆久久久9性大片 | 国产成人99久久亚洲综合精品 | 婷婷丁香在线视频 | 亚州中文字幕 | 亚洲网在线| 日本一二三区在线观看 | 免费在线观看成人 | 久久久久99| 久久免费精彩视频 | 国产999精品久久久久久 | 欧美在线一区二区三区 | 91麻豆产精品久久久久久 | 91av视频| 91免费看片| 亚洲精品乱码久久久久久蜜桃91 | 国产人成精品一区二区三 | 天天射天天干 | 欧美精品在线一区 | 91精品中文字幕一区二区三区 | 欧美在线一区二区三区 | 国产 亚洲 网红 主播 | 黄色大片免费网站 | 日韩一区二区三区av | 日韩精品成人在线 | 成人日韩 | 欧美日本在线 |