成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

淘寶的高可用異地多活架構到底有多牛?

開發 架構 開發工具
異地多活,作為一種高可用部署架構,成為大中型互聯網公司的選擇。像大家熟知的大型互聯網公司,如阿里、騰訊、百度、網易、新浪等等都已經完成了異地多活的技術重構。

 異地多活,作為一種高可用部署架構,成為大中型互聯網公司的選擇。像大家熟知的大型互聯網公司,如阿里、騰訊、百度、網易、新浪等等都已經完成了異地多活的技術重構。

[[353194]] 

圖片來自 Pexels

可以說,異地多活是互聯網公司業務規模擴大后所必然要經歷的階段。那么如何解決高可用異地多活呢?

有狀態服務

后臺服務可以劃分為兩類,有狀態和無狀態。高可用對于無狀態的應用來說是比較簡單的,無狀態的應用,只需要通過 F5 或者任何代理的方式就可以很好的解決。

后文描述的主要是針對有狀態的服務進行分析。服務端進行狀態維護主要是通過磁盤或內存進行保存,比如 MySQL 數據庫,Redis 等內存數據庫。

除了這兩種類型的維護方式,還有 JVM 的內存的狀態維持,但 JVM 的狀態生命周期通常很短。

高可用的一些解決方案

高可用,從發展來看,大致經過了這幾個過程:

  • 冷備
  • 雙機熱備
  • 同城雙活
  • 異地雙活
  • 異地多活

在聊異地多活的時候,還是先看一些其他的方案,這有利于我們理解很多設計的緣由。

冷備

冷備,通過停止數據庫對外服務的能力,通過文件拷貝的方式將數據快速進行備份歸檔的操作方式。

簡而言之,冷備,就是復制粘貼,在 Linux 上通過 cp 命令就可以很快完成。可以通過人為操作,或者定時腳本進行。

有如下好處:

  • 簡單
  • 快速備份(相對于其他備份方式)
  • 快速恢復。只需要將備份文件拷貝回工作目錄即完成恢復過程(亦或者修改數據庫的配置,直接將備份的目錄修改為數據庫工作目錄)。更甚,通過兩次 mv 命令就可瞬間完成恢復。
  • 可以按照時間點恢復。比如,幾天前發生的拼多多優惠券漏洞被人刷掉很多錢,可以根據前一個時間點進行還原,“挽回損失”。

以上的好處,對于以前的軟件來說,是很好的方式。但是對于現如今的很多場景,已經不好用了,因為:

  • 服務需要停機。N 個 9 肯定無法做到了。然后,以前我們的停機冷備是在凌晨沒有人使用的時候進行,但是現在很多的互聯網應用已經是面向全球了,所以,任何時候都是有人在使用的。
  • 數據丟失。如果不采取措施,那么在完成了數據恢復后,備份時間點到還原時間內的數據會丟失。

傳統的做法,是冷備還原以后,通過數據庫日志手動恢復數據。比如通過 redo 日志,更甚者,我還曾經通過業務日志去手動回放請求恢復數據。恢復是極大的體力活,錯誤率高,恢復時間長。

  • 冷備是全量備份。全量備份會造成磁盤空間浪費,以及容量不足的問題,只能通過將備份拷貝到其他移動設備上解決。

所以,整個備份過程的時間其實更長了。想象一下每天拷貝幾個T的數據到移動硬盤上,需要多少移動硬盤和時間。并且,全量備份是無法定制化的,比如只備份某一些表,是無法做到的。

如何權衡冷備的利弊,是每個業務需要考慮的。

雙機熱備

熱備,和冷備比起來,主要的差別是不用停機,一邊備份一邊提供服務。但還原的時候還是需要停機的。由于我們討論的是和存儲相關的,所以不將共享磁盤的方式看作雙機熱備。

①Active/Standby 模式

相當于 1 主 1 從,主節點對外提供服務,從節點作為 backup。通過一些手段將數據從主節點同步到從節點,當故障發生時,將從節點設置為工作節點。數據同步的方式可以是偏軟件層面,也可以是偏硬件層面的。

偏軟件層面的,比如 MySQL 的 master/slave 方式,通過同步 binlog 的方式;sqlserver 的訂閱復制方式。

偏硬件層面,通過扇區和磁盤的攔截等鏡像技術,將數據拷貝到另外的磁盤。偏硬件的方式,也被叫做數據級災備;偏軟件的,被叫做應用級災備。后文談得更多的是應用級災備。

②雙機互備

本質上還是 Active/Standby,只是互為主從而已。雙機互備并不能工作于同一個業務,只是在服務器角度來看,更好的壓榨了可用的資源。

比如,兩個業務分別有庫 A 和 B,通過兩個機器 P 和 Q 進行部署。那么對于 A 業務,P 主 Q 從,對于 B 業務,Q 主 P 從。

整體上看起來是兩個機器互為主備。這種架構下,讀寫分離是很好的,單寫多讀,減少沖突又提高了效率。

其他的高可用方案還可以參考各類數據庫的多種部署模式,比如 MySQL 的主從、雙主多從、MHA;Redis 的主從,哨兵,Cluster 等等。

同城雙活

前面講到的幾種方案,基本都是在一個局域網內進行的。業務發展到后面,有了同城多活的方案。

和前面比起來,不信任的粒度從機器轉為了機房。這種方案可以解決某個 IDC 機房整體掛掉的情況(停電,斷網等)。

同城雙活其實和前文提到的雙機熱備沒有本質的區別,只是“距離”更遠了,基本上還是一樣(同城專線網速還是很快的)。雙機熱備提供了災備能力,雙機互備避免了過多的資源浪費。

在程序代碼的輔助下,有的業務還可以做到真正的雙活,即同一個業務,雙主,同時提供讀寫,只要處理好沖突的問題即可。需要注意的是,并不是所有的業務都能做到。

業界更多采用的是兩地三中心的做法。遠端的備份機房能更大的提供災備能力,能更好的抵抗地震,恐襲等情況。雙活的機器必須部署到同城,距離更遠的城市作為災備機房。

災備機房是不對外提供服務的,只作為備份使用,發生故障了才切流量到災備機房;或者是只作為數據備份。原因主要在于:距離太遠,網絡延遲太大。

 

圖 1:兩地三中心

如上圖,用戶流量通過負載均衡,將服務 A 的流量發送到 IDC1,服務器集 A;將服務 B 的流量發送到 IDC2,服務器 B。

同時,服務器集 a 和 b 分別從 A 和 B 進行同城專線的數據同步,并且通過長距離的異地專線往 IDC3 進行同步。

當任何一個 IDC 當機時,將所有流量切到同城的另一個 IDC 機房,完成了failover。

當城市 1 發生大面積故障時,比如發生地震導致 IDC1 和 2 同時停止工作,則數據在 IDC3 得以保全。

同時,如果負載均衡仍然有效,也可以將流量全部轉發到 IDC3 中。不過,此時 IDC3 機房的距離非常遠,網絡延遲變得很嚴重,通常用戶的體驗的會受到嚴重影響的。

 

圖 2:兩地三中心主從模式

上圖是一種基于 Master-Slave 模式的兩地三中心示意圖。城市 1 中的兩個機房作為 1 主 1 從,異地機房作為從。

也可以采用同城雙主+Keepalived+VIP 的方式,或者 MHA 的方式進行failover。但城市 2 不能(最好不要)被選擇為 Master。

異地雙活

同城雙活可以應對大部分的災備情況,但是碰到大面積停電,或者自然災害的時候,服務依然會中斷。

對上面的兩地三中心進行改造,在異地也部署前端入口節點和應用,在城市 1 停止服務后將流量切到城市 2,可以在降低用戶體驗的情況下,進行降級。但用戶的體驗下降程度非常大。

所以大多數的互聯網公司采用了異地雙活的方案:

 

圖 3:簡單的異地雙活示意圖

上圖是一個簡單的異地雙活的示意圖。流量經過 LB 后分發到兩個城市的服務器集群中,服務器集群只連接本地的數據庫集群,只有當本地的所有數據庫集群均不能訪問,才 failover 到異地的數據庫集群中。

在這種方式下,由于異地網絡問題,雙向同步需要花費更多的時間。更長的同步時間將會導致更加嚴重的吞吐量下降,或者出現數據沖突的情況。

吞吐量和沖突是兩個對立的問題,你需要在其中進行權衡。例如,為了解決沖突,引入分布式鎖/分布式事務。

為了解決達到更高的吞吐量,利用中間狀態、錯誤重試等手段,達到最終一致性;降低沖突,將數據進行恰當的 sharding,盡可能在一個節點中完成整個事務。

對于一些無法接受最終一致性的業務,餓了么采用的是下圖的方式:

對于個別一致性要求很高的應用,我們提供了一種強一致的方案(Global Zone),Globa Zone 是一種跨機房的讀寫分離機制,所有的寫操作被定向到一個 Master 機房進行,以保證一致性,讀操作可以在每個機房的 Slave 庫執行,也可以 bind 到 Master 機房進行,這一切都基于我們的數據庫訪問層(DAL)完成,業務基本無感知。

《餓了么異地多活技術實現(一)總體介紹》

也就是說,在這個區域是不能進行雙活的。采用主從而不是雙寫,自然解決了沖突的問題。

實際上,異地雙活和異地多活已經很像了,雙活的結構更為簡單,所以在程序架構上不用做過多的考慮,只需要做傳統的限流,failover 等操作即可。

但其實雙活只是一個臨時的步驟,最終的目的是切換到多活。因為雙活除了有數據沖突上的問題意外,還無法進行橫向擴展。

異地多活

 

圖 4:異地多活的示意圖

根據異地雙活的思路,我們可以畫出異地多活的一種示意圖。每個節點的出度和入度都是 4,在這種情況下,任何節點下線都不會對業務有影響。

但是,考慮到距離的問題,一次寫操作將帶來更大的時間開銷。時間開銷除了影響用戶體驗以外,還帶來了更多的數據沖突。

在嚴重的數據沖突下,使用分布式鎖的代價也更大。這將導致系統的復雜度上升,吞吐量下降。所以上圖的方案是無法使用的。

回憶一下我們在解決網狀網絡拓撲的時候是怎么優化的?引入中間節點,將網狀改為星狀:

 

圖 5:星狀的異地多活

改造為上圖后,每個城市下線都不會對數據造成影響。對于原有請求城市的流量,會被重新 LoadBalance 到新的節點(最好是 LB 到最近的城市)。

為了解決數據安全的問題,我們只需要針對中心節點進行處理即可。但是這樣,對于中心城市的要求,比其他城市會更高。

比如恢復速度,備份完整性等,這里暫時不展開。我們先假定中心是完全安全的。

如果我們已經將異地多活的業務部署為上圖的結構,很大程度解決了數據到處同步的問題,不過依然會存在大量的沖突,沖突的情況可以簡單認為和雙活差不多。那么還有沒有更好的方式呢?

回顧一下前文提到的餓了么的 GlobalZone 方案,總體思路就是“去分布式”,也就是說將寫的業務放到一個節點的(同城)機器上。

阿里是這么思考的:

 

阿里理想中的異地多活架構

實際上我猜測很多業務也是按照上圖去實現的,比如滴滴打車業務這種,所有的業務都是按城市劃分開的。

用戶、車主、目的地,他們的經緯度通常都是在同一個城市的。單個數據中心并不需要和其他數據中心進行數據交互,只有在統計出報表的時候才需要,但報表是不太注重實時性的。

那么,在這種情況下,全國的業務其實可以被很好的 sharding 的。但是對于電商這種復雜的場景和業務,按照前文說的方式進行 sharding 已經無法滿足需求了。

因為業務線非常復雜,數據依賴也非常復雜,每個數據中心相互進行數據同步的情況無可避免。

淘寶的解決方式和我們切分微服務的方式有點類似:

 

淘寶按照單元切分的異地多活架構

注意看圖中的數據同步箭頭。以交易單元為例,屬于交易單元的業務數據,將與中心單元進行雙向同步;不屬于交易單元的業務數據,單向從中心單元同步。

中心單元承擔了最復雜的業務場景,業務單元承擔了相對單一的場景。對于業務單元,可以進行彈性伸縮和容災。

對于中心單元,擴展能力較差,穩定性要求更高。可以遇見,大部分的故障都會出現在中心單元。

按照業務進行單元切分,已經需要對代碼和架構進行徹底的改造了(可能這也是為什么阿里要先從雙活再切到多活,歷時3年)。比如,業務拆分,依賴拆分,網狀改星狀,分布式事務,緩存失效等。

除了對于編碼的要求很高以外,對測試和運維也有非常大的挑戰。如此復雜的情況,如何進行自動化覆蓋,如何進行演練,如何改造流水線。這種級別的災備,不是一般公司敢做的,投入產出也不成正比。

不過還是可以把這種場景當作我們的“假想敵”,去思考我們自己的業務,未來會怎么發展,需要做到什么級別的災備。相對而言,餓了么的多活方案可能更適合大多數的企業。

本文只是通過畫圖的方式進行了簡單的描述,其實異地多活是需要很多很強大的基礎能力的。

比如,數據傳輸,數據校驗,數據操作層(簡化客戶端控制寫和同步的過程)等。

思考

最后,留幾個問題大家可以思考一下:

  • 假設你在做餓了么的開發,服務按照異地多活方式部署,sharding key 根據省市區進行分片。假設買家在多個城市交匯的地方,比如,十字路口的四個位置分別是 4 個城市,那么如何處理才能讓他拉到比較正常的數據?
  • 你們現在的業務模塊中,哪些業務是可以做多活的,哪些無法做多活?
  • 所有的業務都要做多活嗎?還是只需要核心業務做多活?

參考資料及其他資料:

  • 《餓了么異地多活技術實現(一)總體介紹》

https://zhuanlan.zhihu.com/p/32009822

  • 《餓了么框架工具部技術博客》

https://zhuanlan.zhihu.com/eleme-arch

  • 《阿里異地多活與同城雙活的架構演進》

https://www.sohu.com/a/158859741_444159

  • 《阿里云 數據庫異地多活解決方案》

https://help.aliyun.com/document_detail/72721.html

  • 《異地多活沒那么難》

https://wely.iteye.com/blog/2313293

作者:DongGuoChao

編輯:陶家龍

出處:https://blog.dogchao.cn/?p=299

 

責任編輯:武曉燕 來源: blog.dogchao
相關推薦

2022-04-08 07:52:00

架構多機房多活

2019-10-29 15:00:26

12306架構高并發

2024-04-26 00:28:14

異地多活架構

2020-07-20 07:55:53

微信支付架構

2016-09-22 16:47:55

iOSAndroidWindows Pho

2022-09-23 08:47:01

DMA網卡CPU

2023-11-28 07:45:48

Rust自動化測試

2024-08-12 08:04:00

2024-01-19 14:45:36

ApacheDoris架構

2021-02-01 10:26:29

數據安全MVP機密計算

2014-06-27 10:28:51

GoogleIO大會數字

2021-02-24 10:05:07

架構運維技術

2019-03-18 10:32:33

容災雙活同城

2018-04-16 11:34:59

2021-02-04 10:00:09

異地多中心容災

2009-06-15 18:20:27

2022-03-28 18:08:50

通信網絡綠色通信節能減排

2013-09-24 10:20:35

代碼代碼異味

2012-09-04 09:38:17

StubHub架構票務
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: av中文字幕在线播放 | 日韩欧美一级片 | 日韩电影一区二区三区 | 91天堂网| 亚洲精品国产一区 | 久久精品免费观看 | www.青娱乐 | 黄色在线观看 | 我要看一级片 | 一区二区成人 | 羞羞网站在线免费观看 | 又黑又粗又长的欧美一区 | 精品欧美一区二区三区精品久久 | 国产精品美女www | 狠狠爱网址 | 色一级片| 欧美激情综合 | 麻豆精品久久 | 久久久精品 | 国产精品久久久久久一区二区三区 | 高清亚洲| 国产成人福利视频在线观看 | 中文字幕成人av | 极品国产视频 | 久草电影网 | 国产a级黄色录像 | 观看av | 中文二区| 美国一级黄色片 | 91电影 | 视频一区在线 | 亚洲精品成人免费 | 超碰520| 91在线视频网址 | 欧美激情久久久 | 日韩综合网 | 亚洲精品一二三 | 龙珠z国语版在线观看 | 激情麻豆视频 | 欧美亚洲国产日韩 | 在线成人免费视频 |