一文看懂金融級分布式數據庫架構設計
原創【51CTO.com原創稿件】行業背景
銀行業從最初的手工記賬到會計電算化,到金融電子化,再到現在的金融科技,可以看到金融與科技的結合越來越緊密,人工智能、大數據、物聯網、區塊鏈等新興技術改變了金融的交易方式,為金融行業的創新前行提供了源源不斷的動力。同時互聯網金融的興起是一把雙刃劍,帶來了機遇的同時也帶來了挑戰。
普惠金融使得金融的門檻降低,更多的普通大眾參與到金融活動中,這讓金融信息系統承受了越來越大的壓力。于是我們可以看到大型商業銀行、保險公司、證券公司、交易所等核心交易系統都在紛紛進行分布式改造,其中數據庫作為有狀態的應用,成為了信息系統中唯一的單點,承擔了所有來自上層應用的壓力。隨著數據庫瓶頸的凸顯,進行分布式改造迫在眉睫。
數據庫分布式改造的途徑
數據庫進行分布式改造主要有三種途徑:分布式訪問客戶端、分布式訪問中間件、分布式數據庫。由于其分布式能力實現在不同的層次(應用層、中間層、數據庫層),對應用程序有不同的侵入程度,其中分布式訪問客戶端對應用侵入性最大,改造難度最大,而分布式數據庫方案對應用侵入性最小,但是架構設計及研發難度最大。
分布式數據庫總體架構
其實當前市面上的分布式數據庫總體架構都是類似的,由必不可少的三個組件組成:接入節點、數據節點、全局事務管理器。總體架構如下,接入節點負責sql解析,生成分布式執行計劃,sql轉發,數據匯總等;數據節點負責數據存儲與運算;全局事務管理器負責全局事務號的生成,保證事務的全局一致性。這個架構或多或少都受到了Google Spanner F1論文的影響,這篇文章主要分析了這幾個組件在實現上有什么難點,該如何進行架構設計。
兩階段提交的問題
我們知道兩階段提交是阻塞性協議,這也是它最大的問題。下圖以pgxc架構下的兩階段提交為例,主要分為幾個階段:
①:CN prepare ->②:所有DN prepare ->③:CN commit->④:所有DN commit
試想一下如果在cn commit階段發生cn/dn宕機會發生什么?
如果在cn下發完cn commit命令后宕機,這時dn收到commit命令后會進行提交,但是返回commit ok時發生cn宕機,事務進入阻塞狀態。如果cn下發commit之后某個dn發生宕機,則會造成某些dn commit成功,某些dn commit失敗,造成不一致,但是如果dn重新啟動后會繼續去cn上拿事務提交信息,發現是commit狀態,則會繼續執行commit操作,提交之前的事務。
在這個地方我們可以探討一個更極端的情況,如果此時cn也宕機了,那么失敗的dn重啟后去cn拿狀態發現拿不到,這時這個失敗dn上的事務就處于一個未決態,不知道是應該提交還是回滾,這時候應該有一個進程能夠從其他dn上發現該狀態并報告給故障dn,通知它進行提交。這個角色就是pgxc_clean進程,其實之前幾種情況下的事務的回滾也是該進程的工作。那我們再深入一下,如果該dn是事務的唯一參與者,那么此時pgxc_clean就無法從其他dn以及cn獲取狀態,這時該dn就是真正的未決態了。
為了解決兩階段提交的阻塞問題,出現了三階段提交,三階段提交在commit之前引入了cancommit的過程,同時加入超時機制。因為如果協調者發生宕機,參與者無法得知協調者到底發出的是commit還是abort,三階段提交cancommit過程就是告知參與者我發送的是commit或者abort命令,這時如果協調者發生失敗,參與者等待超時時間后可以選出新的協調者,而該協調者是知道應該發出什么命令。
雖然三階段提交解決了阻塞問題,但是無法解決性能問題,分布式系統中為了保證事務一致性需要跟每個參與者通信,一個事務的提交和參與需要分布式系統中每個節點的參與,必然帶來延時,不過在萬兆、infiniband、roce高速網絡的支持下已經不再是問題了。
CAP與BASE的抉擇
我們知道分布式系統無法戰勝CAP。那么在設計分布式系統的時候該如何進行取舍?首先P(分區容錯性)是必須保證的,因為分布式系統必然是多個節點(分區)通過網絡進行互聯,而網絡是不可靠的,分布式系統是為了避免單點故障,如果因為網絡問題或者某些節點失敗造成整體系統不可用,那么也不符合分布式系統的設計初衷。如果保證A(可用性),那么當網絡失敗時,網絡隔離的不同區域就要繼續提供服務,那么就會造成不同分區的數據不一致(腦裂);如果保證C(一致性),那么網絡失敗時,就需要等待不同網絡分區的節點同步完數據,如果網絡一直失敗,那么系統就會因為無法同步而一直不可用。
2PC就是典型的犧牲可用性保證一致性的例子,而BASE(basically available,soft state,eventual consistency)就是犧牲一致性保證可用性的例子,因為做到實時的強一致要犧牲的代價太大了,它允許數據在某些時間窗口內的不一致,通過記錄窗口內的每一個臨時狀態日志做到在系統故障時,通過日志繼續完成未完成的工作或者取消已經完成的工作回退到初始狀態,這種方式保證了最終一致性。BASE與傳統ACID理論其實是背離的,滿足BASE理論的事務也叫柔性事務,在遭遇失敗時需要有相應的補償機制,與業務耦合性較高,其實我并不是很贊同BASE的做法,因為它已經背離了數據庫最基本的設計理念。
raft的優勢
不管是上面的XA還是BASE都無法徹底解決一致性問題,真正意義上的強一致一定是基于強一致協議的。paxos和raft是目前主流的兩種共識算法。Paxos誕生于學院派,是分布式環境下基于消息傳遞的共識算法,它設計之初是考慮一個通用的模型,并沒有過多的考慮實際的應用,而且paxos考慮了多個節點同時寫入的情況,這就使得paxos的狀態機異常復雜,所以難以理解,不同的人可能理解出不同的意思,這一點一直遭人詬病,比如MGR引入write set的概念來處理多點寫入沖突的問題,這在高并發熱點數據的場景下是不可接受的。因為paxos的難以理解,斯坦福的兩名大學生設計了raft算法,相比來說,raft是工業派,同一時刻leader只有一個,follower通過日志復制實現一致性,相比paxos來說raft的狀態機更加簡單易懂,實現起來也更加簡單,因此在分布式環境上有著廣泛的應用,例如TiDB、RadonDB、etcd、kubernetes等。
Raft協議將共識問題分解為三個子問題分別解決:leader選舉、日志復制、安全性。
Leader選舉:
服務器節點有三種狀態:領導者、跟隨者和候選者。正常情況下,系統中只有一個領導者,其他的節點全部都是跟隨者,領導者處理全部客戶端請求,跟隨者不會主動發送任何請求,只是簡單的響應來自領導者或者候選者的請求。如果跟隨者接收不到消息(選舉超時),那么他就會變成候選者并發起一次選舉。獲得集群中大多數選票的候選者將成為領導者,領導者一直都會是領導者直到自己宕機了。
Raft 算法把時間分割成任意長度的任期(term),每一段任期從一次選舉開始,一個或者多個候選者嘗試成為領導者。如果一個候選者贏得選舉,然后他就在這個的任期內充當領導者。要開始一次選舉過程,跟隨者先要增加自己的當前任期號并且轉換到候選者狀態,然后他會并行的向集群中的其他服務器節點發送請求投票的 RPCs 來給自己投票,候選者會繼續保持著當前狀態直到以下三件事情之一發生:(a) 他贏得了這次的選舉,(b) 其他服務器成為領導者,(c) 沒有任何一個候選者贏得選舉。當一個候選者獲得了集群大多數節點針對同一個任期號的選票,那么他就贏得了選舉并成為領導者。然后他會向其他的服務器發送心跳消息來建立自己的權威并且阻止新的領導人的產生。下圖為三種角色的轉換狀態機。
日志復制:
當leader被選舉出來,他就作為服務器處理客戶端請求。客戶端的每一個請求都被看成復制狀態機所需要執行的指令。領導者把這條指令作為一條新的日志條目附加到日志中去,然后并行的發起附加條目 RPCs 給其他的服務器,讓他們復制這條日志條目。當這條日志條目被安全的復制,領導者會應用這條日志條目到它的狀態機中然后把執行的結果返回給客戶端。如果跟隨者崩潰或者網絡丟包,領導者會不斷的重復嘗試附加日志條目 RPCs (盡管已經回復了客戶端)直到所有的跟隨者都最終存儲了所有的日志條目。下圖為復制狀態機模型。
安全性:
安全性指的是每臺復制狀態機都需要按照同樣的順序執行相同的指令,以保證每臺服務器數據的一致性。假想一臺跟隨者在某段時間處于不可用狀態,后來可能被選為領導者,這時就會造成之前的日志被覆蓋。Raft算法通過在leader選舉時增加一些限制來避免這個問題,這一限制保證所有領導者對于給定的任期號,都擁有了之前任期的所有被提交的日志條目。日志條目只會從領導者傳給跟隨者,不會出現因為新領導者缺日志而需要跟隨者向領導者傳日志的情況,并且領導者從不會覆蓋本地日志中已經存在的條目。Raft 算法使得在投票時投票者拒絕掉那些日志沒有自己新的投票請求,從而阻止該候選者贏得選票。
CN的設計
接入節點的設計可能看起來很簡單,但是里面有些地方內容還是有些玄機的。設計cn需要重點考量的地方主要是cn到底是做重還是做輕。這是把雙刃劍,主要有下面兩方面問題。
1.如何做到sql語法兼容性?
接入節點主要負責sql的解析、執行計劃的生成與下發,這些東西其實是sql解析器做的事情,我們可以直接將MySQL或者pg的解析器甚至server層拿過來做sql解析和執行計劃生成,而且就天然的兼容了MySQL或者pg的語法。
2.如何處理元數據的問題?
上面的方案看似很完美的事情,但是有個問題:如果直接將MySQL或者pg的server層搬過來的話,元數據怎么辦?cn上到底放不放元數據?如果不放元數據,那么就需要一個統一的存放和管理元數據的地方,我在cn上建的表需要到某個固定地方更新元數據信息,查詢也是一樣。如果cn上存放元數據,那么元數據的更新就需要在各個cn之間進行同步,如果發生某個cn宕機,則任何ddl操作都會hang住,這時就需要有一個機制:在cn超時無響應后將cn剔除出集群。
DN的設計
數據節點的設計主要考慮下面幾個方面問題。
1.數據節點如何做高可用?
數據庫的數據當然是最寶貴的,任何數據庫都要有數據冗余方案,數據節點一定要有高可用,在保證rpo=0的基礎上盡量縮短rto。細想一下,其實每個dn都是一個數據庫實例,這里以MySQL或者pg為例,MySQL和pg本身是有高可用方案的,不管是基于主從半同步還是流復制,都可以在dn層面作為數據的冗余和切換方案。當然還有些數據庫在dn層面引入了paxos、raft、quorum等的強一致方案,這也是在分布式數據庫中很常見的設計。
2.如何做到在線擴容?
在線擴容是分布式數據庫的一項巨大優點,而擴容數據節點必然涉及到數據向新節點的遷移,目前市面上的分布式數據庫基本上都做到了自動的數據重分布。但是做到數據庫自動重分布還不夠,如何做到只遷移少部分數據以降低服務器IO壓力成為關鍵問題。
傳統的散列方式是根據分區鍵哈希值對分區數量進行取模操作,得到的結果就是數據應該落入的分區,但是這種分布方法在增加刪除節點時會造成大量的數據重分布,而一致性哈希的核心思想是每個分區不再是對應一個數字,而是對應一個范圍,對計算的散列值進行范圍的匹配,大體思路是將數據節點和鍵的hash值都映射到0~2^32的圓環上,然后從映射值的位置開始順時針查找,將數據保存到找到的第一個節點上。如果超過2^32仍然找不到服務節點,就會保存到第一個節點上。一致性哈希最大程度解決了數據重分布問題,但是可能會造成節點數據分布不均勻的問題,當然針對這個問題還有一些改進,比如增加虛擬節點。
GTM的設計
GTM顧名思義是一個全局概念,分布式數據庫本來就是為了可擴展、提升性能、降低全局風險,然而GTM這個東西打破了這一切。
1.為什么需要GTM?
簡單一句話總結就是:GTM是為了保證全局讀一致性,而兩階段提交是為了保證寫一致性。這里我們可能有個誤區,如果沒有GTM那么會不會造成數據不一致?會,但是只是某個時間點讀的不一致,這個不一致也是暫時的,但是不會造成數據寫的不一致,寫的一致性通過兩階段提交來保證。
我們知道postgresql通過快照(snapshot)來實現MVCC與事務可見性判斷。對于read commit隔離級別,要求每個事務中的查詢僅能看到在該事務啟動前已經提交的更改,以及當前事務中該查詢之前所做的更改,這都要通過快照來實現。快照的數據結構中會包含事務的xmin(插入tuple的事務號)、xmax(更新或者刪除事務的事務號)、正在運行的事務列表等相關信息。pg的每條元組(tuple)頭信息中也會記錄事務的xmin和xmax信息。Pg取得snapshot后會進行事務可見性判斷,對于所有id小于xmin的tuple對當前快照可見,同時id大于xmax的tuple對當前事務可見。當前擴展到分布式集群后,每臺機器上都存在pg的實例,為了保證全局的讀一致性,需要一個全局的組件來負責snapshot的分配,使得快照信息在各個節點之間共享,這就是GTM的工作。
2.GTM高可用的問題?
GTM作為分配全局快照和事務id的唯一組件,只能有一個,當然GTM可以做主備高可用,但是同一時刻只能有一個GTM在工作,gxid信息在主備之間進行同步,這樣就造成一個問題,雖然其他節點都分布式了,但是GTM始終是一個單點,單點故障時就會涉及到切換,切換過程是影響全局的,而且為了保證切換后gxid信息不丟失,GTM之間必須做到gxid的同步。
針對高可用這塊問題,可以將GTM的事務號存儲信息剝離,將事務號信息存在第三方存儲中,例如etcd就是個很好的選擇,etcd是個強一致高可用的分布式存儲集群,etcd比較輕量,適合用來存儲事務號信息,同時它自身保證了高可用與強一致,這時GTM就不需要在主備之間同步gxid,如果發生主備切換,新主GTM只需要再去從etcd中取得最新事務號,寫事務號也同理,主GTM會向主etcd節點寫入事務號信息,通過etcd自身的raft復制協議保證一致性。這樣的設計使得GTM的壓力減輕很多。
3.GTM性能的問題?
GTM是大部分分布式數據庫的性能瓶頸,它使得一套集群的整體性能甚至不如一臺單機。也很好理解,任何一個事務開啟都要先通過cn到GTM取事務號和快照信息,然后結果解析后下發到dn執行,然后cn進行匯總再返回給應用,路徑很明顯變長了,那么效率肯定變低,目前優勢在于可以利用多臺機器的組合能力進行計算,計算資源得到了擴展。
針對GTM的瓶頸問題當然也有解決方案,比如華為GaussDB就提出GTM-Free和GTM-Lite,gtm-free是在那種強一致讀要求不高的場景下關閉GTM的功能,所有事物都不走GTM,這種情況下性能基本能夠得到線性提升,該功能已經實現;gtm-lite是將事務分類,全局事務就走GTM,本地事務就直接下發,因為大多數情況下都是本地事務,所有性能提升也很明顯,該功能還在研發階段。
分布式數據庫如何實現PITR
數據庫的PITR一般都是通過一個基礎備份加上持續不間斷的wal歸檔來做到的,這個基礎備份可以是在線的,因為它并不需要數據庫當時處于一致性狀態,一致性可以通過replay redo來實現,所以基礎備份可以是文件系統tar命令而不需要文件系統級別的快照。
PITR是通過基礎備份加上redo日志能夠恢復到任意時間點,這個任意時間點不同數據庫有不同定義,可能是某個lsn,可能是某個snapshot,可能是某個timestamp。Postgresql數據庫中能夠基于redo恢復到任意的timestamp。
分布式數據庫的PITR理論上和單機區別不大,每個節點備份自己的基礎數據,這個數據不需要一致性,但是要考慮到分布式事務的問題,在做基礎備份的時候必須保證之前的分布式事務(如果存在)已經全部完成,因為分布式事務是走兩階段提交協議,2PC在提交階段不同的機器commit肯定有時間差,如果在這個時間差做了備份,會發現最后一臺機器有這個事務的redo,另一臺沒有,這樣恢復的話就會造成數據不一致。這個問題可以通過pg中一個barries的概念實現,在分布式事務結束后打一個barrier,獲得一致性點,然后再進行基礎備份。對于redo的前滾來說,只需要將所有節點的redo前滾到一個一致性位點即可。
作者介紹:
張小海,就職于某大型商業銀行,目前主要負責數據庫管理及新技術研究,PostgreSQL技術推廣者,個人公眾號:數據庫架構之美。
【51CTO原創稿件,合作站點轉載請注明原文作者和出處為51CTO.com】