架構(gòu)成長之路:分布式系統(tǒng)如何設(shè)計,看看Elasticsearch是怎么做的
分布式系統(tǒng)類型多,涉及面非常廣,不同類型的系統(tǒng)有不同的特點,批量計算和實時計算就差別非常大。這篇文章中,重點會討論下分布式數(shù)據(jù)系統(tǒng)的設(shè)計,比如分布式存儲系統(tǒng),分布式搜索系統(tǒng),分布式分析系統(tǒng)等。
我們先來簡單看下Elasticsearch的架構(gòu)。
Elasticsearch 集群架構(gòu)
Elasticsearch是一個非常著名的開源搜索和分析系統(tǒng),目前被廣泛應(yīng)用于互聯(lián)網(wǎng)多種領(lǐng)域中,尤其是以下三個領(lǐng)域特別突出。一是搜索領(lǐng)域,相對于solr,真正的后起之秀,成為很多搜索系統(tǒng)的不二之選。二是Json文檔數(shù)據(jù)庫,相對于MongoDB,讀寫性能更佳,而且支持更豐富的地理位置查詢以及數(shù)字、文本的混合查詢等。三是時序數(shù)據(jù)分析處理,目前是日志處理、監(jiān)控數(shù)據(jù)的存儲、分析和可視化方面做得非常好,可以說是該領(lǐng)域的***者了。
Elasticsearch的詳細(xì)介紹可以到官網(wǎng)查看。我們先來看一下Elasticsearch中幾個關(guān)鍵概念:
- 節(jié)點(Node):物理概念,一個運行的Elasticearch實例,一般是一臺機器上的一個進(jìn)程。
- 索引(Index),邏輯概念,包括配置信息mapping和倒排正排數(shù)據(jù)文件,一個索引的數(shù)據(jù)文件可能會分布于一臺機器,也有可能分布于多臺機器。索引的另外一層意思是倒排索引文件。
- 分片(Shard):為了支持更大量的數(shù)據(jù),索引一般會按某個維度分成多個部分,每個部分就是一個分片,分片被節(jié)點(Node)管理。一個節(jié)點(Node)一般會管理多個分片,這些分片可能是屬于同一份索引,也有可能屬于不同索引,但是為了可靠性和可用性,同一個索引的分片盡量會分布在不同節(jié)點(Node)上。分片有兩種,主分片和副本分片。
- 副本(Replica):同一個分片(Shard)的備份數(shù)據(jù),一個分片可能會有0個或多個副本,這些副本中的數(shù)據(jù)保證強一致或最終一致。
用圖形表示出來可能是這樣子的:

- Index 1:藍(lán)色部分,有3個shard,分別是P1,P2,P3,位于3個不同的Node中,這里沒有Replica。
- Index 2:綠色部分,有2個shard,分別是P1,P2,位于2個不同的Node中。并且每個shard有一個replica,分別是R1和R2。基于系統(tǒng)可用性的考慮,同一個shard的primary和replica不能位于同一個Node中。這里Shard1的P1和R1分別位于Node3和Node2中,如果某一刻Node2發(fā)生宕機,服務(wù)基本不會受影響,因為還有一個P1和R2都還是可用的。因為是主備架構(gòu),當(dāng)主分片發(fā)生故障時,需要切換,這時候需要選舉一個副本作為新主,這里除了會耗費一點點時間外,也會有丟失數(shù)據(jù)的風(fēng)險。
Index流程
建索引(Index)的時候,一個Doc先是經(jīng)過路由規(guī)則定位到主Shard,發(fā)送這個doc到主Shard上建索引,成功后再發(fā)送這個Doc到這個Shard的副本上建索引,等副本上建索引成功后才返回成功。
在這種架構(gòu)中,索引數(shù)據(jù)全部位于Shard中,主Shard和副本Shard各存儲一份。當(dāng)某個副本Shard或者主Shard丟失(比如機器宕機,網(wǎng)絡(luò)中斷等)時,需要將丟失的Shard在其他Node中恢復(fù)回來,這時候就需要從其他副本(Replica)全量拷貝這個Shard的所有數(shù)據(jù)到新Node上構(gòu)造新Shard。這個拷貝過程需要一段時間,這段時間內(nèi)只能由剩余主副本來承載流量,在恢復(fù)完成之前,整個系統(tǒng)會處于一個比較危險的狀態(tài),直到failover結(jié)束。
這里就體現(xiàn)了副本(Replica)存在的一個理由,避免數(shù)據(jù)丟失,提高數(shù)據(jù)可靠性。副本(Replica)存在的另一個理由是讀請求量很大的時候,一個Node無法承載所有流量,這個時候就需要一個副本來分流查詢壓力,目的就是擴(kuò)展查詢能力。
角色部署方式
接下來再看看角色分工的兩種不同方式:

Elasticsearch支持上述兩種方式:
1.混合部署(左圖)
- 默認(rèn)方式。
- 不考慮MasterNode的情況下,還有兩種Node,Data Node和Transport Node,這種部署模式下,這兩種不同類型Node角色都位于同一個Node中,相當(dāng)于一個Node具備兩種功能:Data和Transport。
- 當(dāng)有index或者query請求的時候,請求隨機(自定義)發(fā)送給任何一個Node,這臺Node中會持有一個全局的路由表,通過路由表選擇合適的Node,將請求發(fā)送給這些Node,然后等所有請求都返回后,合并結(jié)果,然后返回給用戶。一個Node分飾兩種角色。
- 好處就是使用極其簡單,易上手,對推廣系統(tǒng)有很大價值。最簡單的場景下只需要啟動一個Node,就能完成所有的功能。
- 缺點就是多種類型的請求會相互影響,在大集群如果某一個Data Node出現(xiàn)熱點,那么就會影響途經(jīng)這個Data Node的所有其他跨Node請求。如果發(fā)生故障,故障影響面會變大很多。
- Elasticsearch中每個Node都需要和其余的每一個Node都保持13個連接。這種情況下, - 每個Node都需要和其他所有Node保持連接,而一個系統(tǒng)的連接數(shù)是有上限的,這樣連接數(shù)就會限制集群規(guī)模。
- 還有就是不能支持集群的熱更新。
2.分層部署(右圖):
- 通過配置可以隔離開Node。
- 設(shè)置部分Node為Transport Node,專門用來做請求轉(zhuǎn)發(fā)和結(jié)果合并。
- 其他Node可以設(shè)置為DataNode,專門用來處理數(shù)據(jù)。
- 缺點是上手復(fù)雜,需要提前設(shè)置好Transport的數(shù)量,且數(shù)量和Data Node、流量等相關(guān),否則要么資源閑置,要么機器被打爆。
- 好處就是角色相互獨立,不會相互影響,一般Transport Node的流量是平均分配的,很少出現(xiàn)單臺機器的CPU或流量被打滿的情況,而DataNode由于處理數(shù)據(jù),很容易出現(xiàn)單機資源被占滿,比如CPU,網(wǎng)絡(luò),磁盤等。獨立開后,DataNode如果出了故障只是影響單節(jié)點的數(shù)據(jù)處理,不會影響其他節(jié)點的請求,影響限制在最小的范圍內(nèi)。
- 角色獨立后,只需要Transport Node連接所有的DataNode,而DataNode則不需要和其他DataNode有連接。一個集群中DataNode的數(shù)量遠(yuǎn)大于Transport Node,這樣集群的規(guī)??梢愿?。另外,還可以通過分組,使Transport Node只連接固定分組的DataNode,這樣Elasticsearch的連接數(shù)問題就徹底解決了。
- 可以支持熱更新:先一臺一臺的升級DataNode,升級完成后再升級Transport Node,整個過程中,可以做到讓用戶無感知。
上面介紹了Elasticsearch的部署層架構(gòu),不同的部署方式適合不同場景,需要根據(jù)自己的需求選擇適合的方式。
Elasticsearch 數(shù)據(jù)層架構(gòu)
接下來我們看看當(dāng)前Elasticsearch的數(shù)據(jù)層架構(gòu)。
數(shù)據(jù)存儲
Elasticsearch的Index和meta,目前支持存儲在本地文件系統(tǒng)中,同時支持niofs,mmap,simplefs,smb等不同加載方式,性能***的是直接將索引LOCK進(jìn)內(nèi)存的MMap方式。默認(rèn),Elasticsearch會自動選擇加載方式,另外可以自己在配置文件中配置。這里有幾個細(xì)節(jié),具體可以看官方文檔。
索引和meta數(shù)據(jù)都存在本地,會帶來一個問題:當(dāng)某一臺機器宕機或者磁盤損壞的時候,數(shù)據(jù)就丟失了。為了解決這個問題,可以使用Replica(副本)功能。
副本(Replica)
可以為每一個Index設(shè)置一個配置項:副本(Replicda)數(shù),如果設(shè)置副本數(shù)為2,那么就會有3個Shard,其中一個是PrimaryShard,其余兩個是ReplicaShard,這三個Shard會被Mater盡量調(diào)度到不同機器,甚至機架上,這三個Shard中的數(shù)據(jù)一樣,提供同樣的服務(wù)能力。
副本(Replica)的目的有三個:
- 保證服務(wù)可用性:當(dāng)設(shè)置了多個Replica的時候,如果某一個Replica不可用的時候,那么請求流量可以繼續(xù)發(fā)往其他Replica,服務(wù)可以很快恢復(fù)開始服務(wù)。
- 保證數(shù)據(jù)可靠性:如果只有一個Primary,沒有Replica,那么當(dāng)Primary的機器磁盤損壞的時候,那么這個Node中所有Shard的數(shù)據(jù)會丟失,只能reindex了。
- 提供更大的查詢能力:當(dāng)Shard提供的查詢能力無法滿足業(yè)務(wù)需求的時候, 可以繼續(xù)加N個Replica,這樣查詢能力就能提高N倍,輕松增加系統(tǒng)的并發(fā)度。
問題
上面說了一些優(yōu)勢,這種架構(gòu)同樣在一些場景下會有些問題。
Elasticsearch采用的是基于本地文件系統(tǒng),使用Replica保證數(shù)據(jù)可靠性的技術(shù)架構(gòu),這種架構(gòu)一定程度上可以滿足大部分需求和場景,但是也存在一些遺憾:
- Replica帶來成本浪費。為了保證數(shù)據(jù)可靠性,必須使用Replica,但是當(dāng)一個Shard就能滿足處理能力的時候,另一個Shard的計算能力就會浪費。
- Replica帶來寫性能和吞吐的下降。每次Index或者update的時候,需要先更新Primary Shard,更新成功后再并行去更新Replica,再加上長尾,寫入性能會有不少的下降。
- 當(dāng)出現(xiàn)熱點或者需要緊急擴(kuò)容的時候動態(tài)增加Replica慢。新Shard的數(shù)據(jù)需要完全從其他Shard拷貝,拷貝時間較長。
上面介紹了Elasticsearch數(shù)據(jù)層的架構(gòu),以及副本策略帶來的優(yōu)勢和不足,下面簡單介紹了幾種不同形式的分布式數(shù)據(jù)系統(tǒng)架構(gòu)。
分布式系統(tǒng)
***種:基于本地文件系統(tǒng)的分布式系統(tǒng)

上圖中是一個基于本地磁盤存儲數(shù)據(jù)的分布式系統(tǒng)。Index一共有3個Shard,每個Shard除了Primary Shard外,還有一個Replica Shard。當(dāng)Node 3機器宕機或磁盤損壞的時候,首先確認(rèn)P3已經(jīng)不可用,重新選舉R3位Primary Shard,此Shard發(fā)生主備切換。然后重新找一臺機器Node 7,在Node7 上重新啟動P3的新Replica。由于數(shù)據(jù)都會存在本地磁盤,此時需要將Shard 3的數(shù)據(jù)從Node 6上拷貝到Node7上。如果有200G數(shù)據(jù),千兆網(wǎng)絡(luò),拷貝完需要1600秒。如果沒有replica,則這1600秒內(nèi)這些Shard就不能服務(wù)。
為了保證可靠性,就需要冗余Shard,會導(dǎo)致更多的物理資源消耗。
這種思想的另外一種表現(xiàn)形式是使用雙集群,集群級別做備份。
在這種架構(gòu)中,如果你的數(shù)據(jù)是在其他存儲系統(tǒng)中生成的,比如HDFS/HBase,那么你還需要一個數(shù)據(jù)傳輸系統(tǒng),將準(zhǔn)備好的數(shù)據(jù)分發(fā)到相應(yīng)的機器上。
這種架構(gòu)中為了保證可用性和可靠性,需要雙集群或者Replica才能用于生產(chǎn)環(huán)境,優(yōu)勢和副作用在上面介紹Elasticsearch的時候已經(jīng)介紹過了,這里就就不贅述了。
Elasticsearch使用的就是這種架構(gòu)方式。
第二種:基于分布式文件系統(tǒng)的分布式系統(tǒng)(共享存儲)

針對***種架構(gòu)中的問題,另一種思路是:存儲和計算分離。
***種思路的問題根源是數(shù)據(jù)量大,拷貝數(shù)據(jù)耗時多,那么有沒有辦法可以不拷貝數(shù)據(jù)?為了實現(xiàn)這個目的,一種思路是底層存儲層使用共享存儲,每個Shard只需要連接到一個分布式文件系統(tǒng)中的一個目錄/文件即可,Shard中不含有數(shù)據(jù),只含有計算部分。相當(dāng)于每個Node中只負(fù)責(zé)計算部分,存儲部分放在底層的另一個分布式文件系統(tǒng)中,比如HDFS。
上圖中,Node 1 連接到***個文件;Node 2連接到第二個文件;Node3連接到第三個文件。當(dāng)Node 3機器宕機后,只需要在Node 4機器上新建一個空的Shard,然后構(gòu)造一個新連接,連接到底層分布式文件系統(tǒng)的第三個文件即可,創(chuàng)建連接的速度是很快的,總耗時會非常短。
這種是一種典型的存儲和計算分離的架構(gòu),優(yōu)勢有以下幾個方面:
- 在這種架構(gòu)下,資源可以更加彈性,當(dāng)存儲不夠的時候只需要擴(kuò)容存儲系統(tǒng)的容量;當(dāng)計算不夠的時候,只需要擴(kuò)容計算部分容量。
- 存儲和計算是獨立管理的,資源管理粒度更小,管理更加精細(xì)化,浪費更少,結(jié)果就是總體成本可以更低。
- 負(fù)載更加突出,抗熱點能力更強。一般熱點問題基本都出現(xiàn)在計算部分,對于存儲和計算分離系統(tǒng),計算部分由于沒有綁定數(shù)據(jù),可以實時的擴(kuò)容、縮容和遷移,當(dāng)出現(xiàn)熱點的時候,可以***時間將計算調(diào)度到新節(jié)點上。
這種架構(gòu)同時也有一個不足:訪問分布式文件系統(tǒng)的性能可能不及訪問本地文件系統(tǒng)。在上一代分布式文件系統(tǒng)中,這是一個比較明顯的問題,但是目前使用了各種用戶態(tài)協(xié)議棧后,這個差距已經(jīng)越來越小了。HBase使用的就是這種架構(gòu)方式。
Solr也支持這種形式的架構(gòu)。
總結(jié)
上述兩種架構(gòu),各有優(yōu)勢和不足,對于某些架構(gòu)中的不足或缺陷,思路不同,解決的方案也大相徑庭,但是思路跨度越大,收益一般也越大。
上面只是介紹了分布式數(shù)據(jù)(存儲/搜索/分析等等)系統(tǒng)在存儲層的兩種不同架構(gòu)方式,希望能對大家有用。但是分布式系統(tǒng)架構(gòu)設(shè)計所涉及的內(nèi)容廣,細(xì)節(jié)多,權(quán)衡點眾,如果大家對某些領(lǐng)域或者方面有興趣,也可以留言,后面再探討。