成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

詳解 ZooKeeper 數據持久化

開發 前端
們通過之前的文章有介紹過,小S(Sync)負責對辦事處的數據進行歸檔,所以今天他就是我們的主角,讓我們一起深入了解他的日常工作吧!

[[388266]]

本文轉載自微信公眾號「HelloGitHub」,作者HelloGitHub。轉載本文請聯系HelloGitHub公眾號。

Hi,這里是 HelloGitHub 推出的 HelloZooKeeper 系列,免費開源、有趣、入門級的 ZooKeeper 教程,面向有編程基礎的新手。

項目地址:https://github.com/HelloGitHub-Team/HelloZooKeeper

前一篇文章我們介紹了 ZK 是如何進行選舉的,這篇我們開始學習 ZK 是如何將數據持久化到磁盤中的。

一、優秀員工小S(Sync)

我們通過之前的文章有介紹過,小S(Sync)負責對辦事處的數據進行歸檔,所以今天他就是我們的主角,讓我們一起深入了解他的日常工作吧

為了喚醒大家的遠古記憶,我放一張之前的

今天我們會重點講一下圖中的藍色部分,不過在此之前還是得先從整體架構上介紹下 ZK 的數據管理,ZK 的數據大致是分為了兩部分,一個是內存,一個就是磁盤文件。

1.1 內存

雖然今天我們的主角是磁盤文件,但是內存還是稍微再提一下下,幫助大家記憶的同時也能有一個比較全面的視角去認知 ZK 整體的數據管理。

ZK 在內存中的存儲就是之前故事中有提到的兩個賬本:小紅本和小黃本。如果排除作為回調通知記錄的小黃本,那 ZK 的內存中就是小紅本對應的哈希表而已,但是小黃本中的數據依然非常重要,所以需要將兩者作為整體一起看待,以及之前我有說過小F(Final)掌管了這兩個賬本,作為業務處理的最后一個負責人,小S(Sync) 從時間上來說是優先于小F(Final)先處理的,所以 ZK 的設計是優先將數據存入磁盤,再去修改內存中的數據保證盡可能的提升數據的可靠性。下面我們繼續了解磁盤文件(還真就提一下下!)

1.2 磁盤文件

ZK 的開發者給 ZK 設計了兩種磁盤文件,對應的路徑分別是 zoo.cfg 配置中的 dataDir 和 dataLogDir 這兩項目錄的配置。為了之后的描述清楚,我給這兩種磁盤文件起了名字:dataDir 對應 snapshot,dataLogDir 對應 log,log 就是的是小S(Sync)工作中的歸檔,snapshot 就是的是小S(Sync)工作中的快照。

log 是負責順序記錄每一個寫請求到文件,snapshot 則是直接將整個內存對象持久化至文件中。假設我現在 zoo.cfg 的配置是這樣:

  1. dataDir=/tmp/zookeeper/snapshot 
  2. dataLogDir=/tmp/zookeeper/log 

當 ZK 啟動后會基于上面兩個路徑繼續創建 version-2 子路徑,之后的文件都會在該子路徑下創建

  1. /tmp 
  2. └── zookeeper 
  3.     ├── snapshot 
  4.       └── version-2 
  5.         └── ... 
  6.     └── log 
  7.       └── version-2 
  8.         └── ... 

二、文件的創建和寫入

兩種文件分別是在什么時候被寫入磁盤的呢?寫入的內容又是哪些呢?我們接下來對兩種文件一一進行分析。

2.1 log 文件

log 文件名的格式是這樣 log.{zxid} zxid 對應當時創建該文件時的最大 zxid,假設現在創建時 zxid 為 0,那目錄結構會是這樣:

  1. /tmp 
  2. └── zookeeper 
  3.     └── log 
  4.       └── version-2 
  5.         └── log.0 

這個 log.0 文件創建的時機你也可以簡單的理解為當服務端收到第一個寫請求的時候,而且當創建完成后,并不能直接將數據寫入,而是要先寫一些文件頭的字段,比如大名鼎鼎的魔數,版本號等元信息。

而 log 文件的魔數是 ZKLG(4 個字節),版本號固定為 2(4 個字節),還要記錄一個 dbId 固定為 0(8 個字節) (當前沒用,可能之后會派用處吧),所以前 16 個字節是固定這樣的:

  1. Z K L G        2                 0 
  2. A4B4C47 00000002 00000000 00000000 

那之后的業務數據是如何記錄的呢?

每一個寫請求都可以分為四個部分:校驗和、請求頭、請求數據、簽名,校驗和是通過后面三個字段計算出來的,小S每次收到寫請求后都會按照這樣的順序將對應請求的四個字段寫入 log 文件,由于不同的業務請求數據不固定,而且數據長度也比較大,這里就不給大家展示具體的值(如果大家想要知道這硬核的存儲過程,不妨給我留言,我以后單獨做下,嘗試逐個字節解釋)

然后是 zookeeper.txnLogSizeLimitInKb 這個環境變量配置,默認是 -1,這個配置限制了 log 單個文件大小(單位是 KB),每次小S(Sync)歸檔的時候(圖中右下角粉色部分“是否歸檔”),將數據統一刷到磁盤后,如果用戶手動配置了該參數,就會檢查當前 log 文件大小是否超過了該參數大小,如果超過了就會進行 rollLog,相當于下一次的寫請求會創建一個新的 log 文件。除此之外,當小S(Sync)每次快照的時候會強制執行一次 rollLog。

2.2 snapshot 文件

snapshot 文件名的格式是這樣 snapshot.{zxid} zxid 對應當是創建該文件時的最大 zxid,假設現在創建是最大 zxid 是 0,那目錄結構會是這樣:

  1. /tmp 
  2. └── zookeeper 
  3.     └── snapshot 
  4.       └── version-2 
  5.         └── snapshot.0 

而關于是否快照(圖中中間區域粉色部分“是否快照”),之前有簡單介紹過是和隨機數有關,這次我們深入了解下。

首先有兩個配置 zookeeper.snapCount (默認 100000)和 zookeeper.snapSizeLimitInKb(默認 4194304 單位是KB,相當于 4 GB)在啟動后會基于這兩個配置分別生成兩個隨機數,假設上述的配置是按照默認的設置,這兩個隨機數的范圍就是:

  1. randRoll = [0, 50000] 
  2. randSize = [0, 4194304 * 1024 / 2] 

可以簡單的認為就是上述兩個配置的一半之內的隨機數,至于 randSize 為什么要乘以 1024 因為最終文件計算大小是以 byte 作為單位的。

而是否快照就是取決于上面兩個隨機數,有兩個條件:

  • 當前寫請求的數量達到了 zookeeper.snapCount 的一半并加上 randRoll 的數量
  • 當前 log 文件的大小達到了 zookeeper.snapSizeLimitInKb 的一半并加上 randSize 的大小

上述條件滿足任意一個條件后就會重置上面的兩個隨機數,并開始生成快照,生成快照這個過程是啟動一個子線程去創建的。

snapshot 和 log 還有個不同的地方就是,snapshot 文件 ZK 提供了三種不同的壓縮實現,GZIP、SNAPPY、CHECKED,通過 zookeeper.snapshot.compression.method 進行配置,默認是 CHECKED,就是原始按照字節順序寫入,另外兩個這里就不展開了。那我們接下來看看 snapshot 文件是怎么記的吧。

和 log 文件一樣,也要先記一些文件的頭部字段,而 snapshot 文件的魔數是 ZKSN(4 個字節),版本號固定為 2(4 個字節),還要記錄一個 dbId 固定為 -1(8 個字節) (當前沒用,可能之后會派用處吧),所以前 16 個字節是固定這樣的:

  1. Z K S N        2         -1 
  2. 5A4B534E 00000002 FFFFFFFF FFFFFFFF 

然后緊跟其后的部分客戶端的會話信息,客戶端的數量,然后循環記錄每一個客戶端的 sessionId、超時時間,然后是小紅本里的所有信息了包括但不限于 ACL,節點的統計數據,節點的數據,子節點的信息等。最后一部分就是校驗和和簽名。和 log 一樣,如果大家有興趣的話,我之后單獨再做一篇逐個字節講解的。

三、從文件中恢復

如果只是單單存文件,那這文件也沒什么用,所以文件另一個重要用途就是幫助 ZK 恢復服務端的信息。

在 ZK 啟動的時候就會嘗試讀取 dataDir 和 dataLogDir 這兩個目錄下的文件,假設在這兩個路徑下的文件是:

  1. /tmp 
  2. └── zookeeper 
  3.     ├── snapshot 
  4.       └── version-2 
  5.         └── snapshot.5 
  6.         └── snapshot.37 
  7.         └── snapshot.100 
  8.     └── log 
  9.       └── version-2 
  10.         └── log.0 
  11.         └── log.6 
  12.         └── log.38 
  13.         └── log.90 
  14.         └── log.108 

我這里例子中的文件名的后綴數字是我隨便舉例只是為了說明恢復的過程,實際未必是這樣,切記。

現在 ZK 服務端啟動后,會先從 snapshot 的目錄中找到 zxid 最大的那個文件,然后根據它的內容恢復小紅本

恢復完后就會去 log 文件目錄下尋找所有比 100 要大的 log 文件以及比 100 要略小一點的 log 文件,本例子中就是 log.90 和 log.108 這兩個文件。

你可能會問為什么要找小于 100 的 log.90 這個文件呢?因為文件名中的 90 只是說明這個文件建立的時候,最大的 zxid 是 90,但是文件中記錄的寫請求是很有可能會大于 100 的,所以 log.90 也需要被找到。

然后就是從 log.90 這個文件開始恢復,先從 zxid 比 100 大的寫請求開始讀取并執行該寫請求,然后繼續讀取 log.108,等待所有符合條件的 log 文件讀取后,整個 ZK 的數據就恢復完成了。

四、總結

今天我們介紹了關于 ZK 持久化的知識:

ZK 會持久化到磁盤的文件有兩種:log 和 snapshot

log 負責記錄每一個寫請求

snapshot 負責對當前整個內存數據進行快照

恢復數據的時候,會先讀取最新的 snapshot 文件

然后在根據 snapshot 最大的 zxid 去搜索符合條件的 log 文件,再通過逐條讀取寫請求來恢復剩余的數據

今天的內容還是比較簡單的,為我們下一篇文章打好了基礎~下一篇我們開始介紹之前選舉中沒有介紹的內容:選舉完成后,Follower 和 Observer 是如何同 Leader 同步數據的?

 

責任編輯:武曉燕 來源: HelloGitHub
相關推薦

2011-08-17 15:19:38

iPhone應用數據

2019-05-15 09:44:33

數據Redis持久化

2019-05-15 09:04:47

Redis數據存儲數據

2024-09-29 09:25:53

2023-12-14 07:30:04

PicklePython模塊

2011-08-25 14:26:40

LUA數據文件

2023-08-17 16:17:00

Docker前端

2019-05-17 08:55:49

RedisRDBAOF

2024-04-03 15:40:14

WebSocketWeb應用Spring

2011-07-07 15:45:45

iPhone SQLite 數據

2024-04-25 16:17:53

SentinelNacos數據源

2013-09-12 14:56:02

iOS持久化

2024-09-06 17:49:46

2018-12-14 09:48:23

Redis數據故障

2017-09-21 08:16:33

數據存儲環境

2011-06-07 17:16:47

iPhone 數據

2022-08-30 10:15:27

Kubernetes數據持久化管理

2020-01-06 14:54:31

RDBAOFRedis

2024-03-26 00:03:08

Redis數據RDB

2024-12-27 09:32:25

MyBatis代碼
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 成人在线h | 国产精品久久久久久吹潮 | 中文字幕精品一区二区三区精品 | 一区二区三区四区免费观看 | 日韩国产一区二区三区 | 国产一二三视频在线观看 | 日韩中文字幕在线观看 | 亚洲视频免费在线播放 | 精品少妇v888av | 欧美精品一区二区免费视频 | 欧美色性 | 国产一区亚洲 | 国产综合久久 | 成人在线一区二区 | 午夜爽爽男女免费观看hd | 日日躁狠狠躁aaaaxxxx | 日韩精品区 | 精品免费国产一区二区三区四区 | 亚洲一区二区三区四区五区中文 | 青青久久久 | 国产91网站在线观看 | av免费在线播放 | 一区二区三区四区视频 | 综合色影院| 污片在线免费观看 | 日本激情视频中文字幕 | 日韩欧美国产精品一区二区 | 亚洲高清视频一区二区 | 亚洲香蕉在线视频 | 91.com视频| 99在线资源 | 欧美激情久久久久久 | 成人午夜影院 | 国产精品九九视频 | 一二区成人影院电影网 | 热久久免费视频 | 亚洲国产高清高潮精品美女 | 欧美激情亚洲天堂 | 免费激情| 婷婷亚洲综合 | 人人亚洲 |