成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

Binlog還能這樣用之Canal篇

開發 前端
我們想一想這個問題的本質是什么呢?就是需要保證我們的數據不論在redis還是在es都要和我們的mysql一致,本質上是數據的復制。一想到數據的復制,熟悉Mysql的朋友就會說到:Mysql的主備不也是數據復制嗎?如果我們模仿Mysql的主備復制,那我們數據同步那么就會很容易了。

[[341955]]

本文轉載自微信公眾號「咖啡拿鐵 」,作者咖啡拿鐵  。轉載本文請聯系咖啡拿鐵 公眾號。

 不知道是否你還在為下面的問題而困擾:

  • 當你使用了redis或者其他中間件做緩存的時候,經常發現緩存和數據庫的數據不一致,只能通過定時任務或者緩存過期的方式去做一些限制。
  • 當你使用了ES做搜索工具,使用雙寫的那一套方法,還在為ES和數據庫不是一個事務而擔憂。
  • 當你需要遷移數據的時候,也還在使用雙寫的方法,如果是同一個數據庫的還好,如果是不同數據庫就不能保證事務,那么數據一致性也是個問題,就會寫很多的修復Job和檢查Job。

這些問題相信在很多同學的業務當中應該都遇到過,也可能因為這些問題常常增加了很多的工作量或者導致一些數據不一致的故障。那么我們怎么才能比較簡單的解決這些問題呢?

我們想一想這個問題的本質是什么呢?就是需要保證我們的數據不論在redis還是在es都要和我們的mysql一致,本質上是數據的復制。一想到數據的復制,熟悉Mysql的朋友就會說到:Mysql的主備不也是數據復制嗎?如果我們模仿Mysql的主備復制,那我們數據同步那么就會很容易了。

Mysql主從

既然我們可以模仿Mysql的主從復制來完成我們的需求,那么我們需要先了解一下mysql主從的原理,如下圖所示:

  • Stpe 1: 作為master的mysql需要在每個事務更新數據完成之前,將該操作記錄串行地寫入到binlog文件中,存儲在本地磁盤中。
  • Step 2: 在我們的salve服務器中開啟一個I/O Thread,它會不斷的從binlog中讀取如果讀取。如果進度已經跟上了master,就進入睡眠狀態并等待master產生新的事件。所有讀取的數據都會寫到Relay log(中繼日志)中。
  • Step 3:SQL Thread會讀取中繼日志,并順序執行該日志中的SQL事件,從而與主數據庫中的數據保持一致。

在主從復制中過程中,其中最為重要的就是binlog,從庫會根據binlog的信息從而來復制出一份主庫的數據。

如果我們能在業務代碼中拿到binlog,通過binlog的數據,復制到redis或者es中,那我們就完全不用擔心數據的一致性的問題了。

binlog

binlog(Binary Log)顧名思義就是Mysql中二進制的日志,記錄了Mysql對數據庫執行更改的所有操作。binlog也是server層產生的日志和我們的存儲引擎沒有關系,不論你使用哪種存儲引擎,都可以使用我們的binlog。

binlog格式

在binlog中有三種格式,分別是:Statement,Row, Mixed三種,可以通過show variables like 'binlog_format'進行查看當前數據庫的binlog格式,如下圖所示就是一個Row格式的binlog:

Statement

Statement也就是語句類型,他會記錄每一條修改數據的Sql到binlog中。

?優點:空間占比是最小的,不會記錄沒有修改的字段。相比其他模式減少了很多的日志亮,提高I/O性能。

?缺點:異構系統不方便使用,比如redis緩存復制的時候,很難模擬mysql的從操作,需要數據重查一次。并且slave也會有問題,比如使用一些UUID函數,slave重放的時候并不能保證兩邊是一致的。我們可以查看下Statement的日志內容到底是什么?我們這里可以輸入命令:show master status;查看我們當前master正在使用的binlog,如下圖:

然后再使用命令show binlog events in 'mysql-bin.000003', 查看這個日志中的內容是什么:

我們可以發現我們所有的操作都會在一個完整的事務中進行,如果事務沒有提交是不會出現在我們的binlog當中的,這個大家可以下來進行實驗一下,我們在數據庫中的更新原始sql都會被完全的記錄下來。

Row

Row模式和Statement不同,他會記錄每一行被修改后的所有的數據:

  • 優點:異構系統也能比較方便的同步數據,并且不會出現UUID函數的那種問題,無論什么情況都能被復制。
  • 缺點:數據量比較多,比如update語句,他還會記錄更新前的每一個字段和更新后的每一個字段。造成日志量比較大,對I/O有一定的影響。

同樣的我們也查看一下其中的內容:

在show binlog events in 'mysql-bin.000004'命令中,我們發現在事務中是查看不了我們具體的數據的,這個時候就需要我們工具幫忙了mysqlbinlog,他也在mysql的bin目錄下我們直接調用就好了,輸入命令/usr/local/mysql/bin/mysqlbinlog --base64-output=decode-rows -v mysql-bin.000004,我們可以看見:

這里展示的是一個update語句,他不僅顯示了原始值,也展示了修改后的值。

這里要注意的是binlog_row_image用于決定row是否會記錄原始值,默認是FULL代表會記錄,也就是我們上面的這種情況,還有個參數是minimal,代表只記錄更新后的值。

Mixed

在mixed模式下,MySQL默認仍然采用statement格式進行記錄,但是一旦它判斷可能會有數據不一致的情況(UUID函數)發生,則會采用row格式來記錄。

我們目前默認使用的是Row模式,在Row模式下可以比較方便的將數據異構,其實Row模式對I/O影響在業務當中來說感知并不是特別明顯。

Canal

當我們知道binlog是什么之后,我們就需要怎么去使用這個binlog。binlog的同步工具常見的有:databus,canal,maxwell,阿里云dts等等,在這里我們就不比較他們各自的優劣點了,重點去介紹canal。

canal(github地址:https://github.com/alibaba/canal),譯意為水道/管道/溝渠,主要用途是基于 MySQL 數據庫增量日志解析,提供增量數據訂閱和消費

早期阿里巴巴因為杭州和美國雙機房部署,存在跨機房同步的業務需求,實現方式主要是基于業務 trigger 獲取增量變更。從 2010 年開始,業務逐步嘗試數據庫日志解析獲取增量變更進行同步,由此衍生出了大量的數據庫增量訂閱和消費業務。后面在阿里云中逐漸演化稱DTS項目。

canal大體原理也是模仿mysql的slave,從master上不斷的去拉取binlog,然后將binlog可以投放到不同的地方,比如我們常見的消息隊列:kafka,rocketmq等等。當然在阿里云的付費dts上面也是可以直接同步到redis,es或者其他的一些存儲介質當中。

canal的簡單使用可以查看quickStart:https://github.com/alibaba/canal/wiki/QuickStart ,這里不做過多的介紹。接下來主要是更多的介紹canal的整體架構,以及實現的原理等等。

Canal整體架構

CanalServer:一個Jvm就可以理解成一個CanalServer,如果是集群模式的Canal的話 那么就會有多個CanalServer。

CanalInstance: 可以理解為一個作業為一個Instance,比如有一個把A庫的binlog同步到A消息隊列,B庫的binlog同步到B的消息隊列,那么這就是兩個不同的Instance,至于哪個Instance在哪個CanalServer上跑,需要看誰先在ZK搶占到臨時節點,如果分配得足夠均勻得話,可以在集群模式下緩解很多壓力。

CanalParser: 用于拉取mysql-binlog,并進行解析。

EventSink: 將解析的數據進行處理加工(過濾,合并等)。

CanalEventStore: 這個有點類似slave中的relay log,用于將日志進行中繼存儲,但是在canal中目前只支持了在內存中存儲,目前不支持落盤存儲。

CanalParser,EventSink,CanalEventStore這三個都是屬于Canal中非常重要的組件,他們之間的關系如下:

CanalParser產生數據讓EventSink進行加工,加工后的數據會存儲在CanalEventStore中,然后MQ從CanalEventStore中不斷的拉取最新數據,然后投遞到MQ。

CanalParser

我們來講講在CanalParser中Canal是如何偽裝成slave去拉數據的,在AbstractEventParser.java這個類中有如下步驟:

  • Step1: 構建一個數據庫鏈接,并且生成一個slaveId,用于標示自己slave的身份。
  • Step2: 獲取數據庫的元信息,比如binlogFormat,binRowImage等等。
  • Step3: 通過show variables like 'server_id' 命令,獲取我們需要監聽binlog服務的serverId。

Step4: 獲取這一次需要消費的位置,如果有存儲上一次的就從上一次中獲取,如果沒有的話需要通過show master status命令中獲取到的最新的Position進行消費。

Step5: 進行dump操作,模擬slave發送注冊slave請求,以及dump binlog請求,然后用一個死循環不斷的從binlog中拉取數據:

Step6: 將獲取到的二進制數據,根據mysql binlog協議轉換成logEntry,方便后續處理。

EventSink

EventSink會將上面獲取到的logEntry來進行加工:

  • 過濾:
  • 過濾空的事務
  • 過濾心跳
  • 自定義過濾

記錄,這里使用了Prometheus,來進行數據的統計上報。

合并,現在有很多分庫分表的業務需要,他們的數據來源都是從不同的Parser中來的,但是最后都需要匯總到同一個EventStore中。在這個場景需要注意的我們可以需要注意的是會做時間歸并控制,也就是盡量讓每個分庫的數據匯總后都是遞增的方式提交,避免出現某個分庫的數據比其他的領先或者落后很多。

EventStore

我們先看看EventStore中提供的接口:

可以看見EventStore其實就是一個簡單的存儲,在canal中提供了MemoryEventStoreWithBuffer,在內存中進行中轉的數據,其中的原理是通過RingBuffer(無鎖,高性能隊列)實現的,有關于RingBuffer的信息可以參考我之前的文章你應該知道的Disruptor,在3.1中有對RingBuffer進行詳細講解。

然后CanalMq通過EventStore不斷的獲取數據,來進行數據發送。

小結

在Canal里面其實還有一些其他的優化,比如對于修改表結構之后的優化,gtid的一些優化等等,大家有興趣的可以下來自行閱讀,這里就不擴展講開了。

總結

這篇文章主要給大家講了binlog的一些知識以及Canal的一些科普,希望大家以后在做一些異構系統數據的同步的時候,可以多多使用binlog,用更簡單的技術,做更可靠的事。

 

責任編輯:武曉燕 來源: 咖啡拿鐵
相關推薦

2020-11-16 13:38:31

PostMessage

2021-07-28 06:10:47

拖拽設計器 transmat

2021-10-29 07:49:22

Spring事務管理

2021-09-05 07:55:37

前端Emoji 表情

2012-07-13 11:32:16

網絡出口

2024-08-02 08:38:20

Controller接口地址

2010-06-04 10:01:26

Hadoop安裝

2024-05-13 00:47:37

JSON對象數據

2024-12-03 09:45:34

2022-04-11 08:20:36

編程輔助工具GitHubCopilot

2024-07-10 11:26:18

2024-01-30 09:21:29

CSS文字效果文字裝飾

2018-12-12 11:30:54

JavaString字符串

2021-04-09 08:23:30

Css前端加載動畫

2022-08-12 08:25:33

Python異常信息代碼

2020-12-30 09:45:50

MySQL數據分離數據庫

2019-12-05 10:08:39

Python 開發編程語言

2013-09-17 09:24:38

2023-02-26 00:00:02

字符串分割String

2015-10-23 15:49:55

程序員加薪升職
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 精品美女视频在免费观看 | 久久综合一区 | 91九色在线观看 | 国产精品永久免费 | 视频一二三区 | 91麻豆精品国产91久久久更新资源速度超快 | 日韩国产精品一区二区三区 | 亚洲三级视频 | 99久久久久久 | 欧美一级大片免费看 | 久久99网 | 久久久久久久久久久91 | 亚洲国产激情 | 91视频一区| 久久精品国产99国产 | 亚洲色图图片 | 男女网站免费观看 | 日韩三级| 精品一区欧美 | 欧美国产免费 | 337p日本欧洲亚洲大胆 | av一区在线 | 国产福利在线 | 午夜精品一区二区三区免费视频 | 国产成人精品网站 | 亚洲综合一区二区三区 | 青青草亚洲 | 日韩亚洲欧美综合 | 欧美国产精品一区二区三区 | 久久午夜影院 | 亚洲精品久久久久久一区二区 | 欧美综合一区二区 | 国产精品日日夜夜 | 亚洲乱码一区二区三区在线观看 | 国产精品视频97 | 久久久久亚洲 | 精品国产乱码久久久久久1区2区 | 欧美日韩亚洲国产综合 | 亚洲精品免费观看 | 夜久久| 亚洲精品久久久久久久久久久久久 |