成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

必須理解的分布式系統中雷同集群技術及原理

存儲 存儲軟件 分布式
分布在不同區域的計算機,彼此之間通過網絡建立通信,相互協作作為一個整體對外提供服務,這就是集群,如果我們開發的系統具備這樣的能力,那么理論上就具備無限橫向擴容的能力,系統的吞吐量就會隨著機器數增加而增長,那么未來當系統出現高負載的時候,就可以很好地應對這種情況。

寫在前面

在當今信息爆炸的時代,單臺計算機已經無法負載日益增長的業務發展,雖然也有性能強大的超級計算機,但是這種高端機不僅費用高昂,也不靈活,一般的企業是負擔不起的,而且也損失不起,那么將一群廉價的普通計算機組合起來,讓它們協同工作就像一臺超級計算機一樣地對外提供服務,就成了順其自然的設想,但是這又增加了軟件的復雜度,要求開發的軟件需要具備橫向擴展能力,比如:Kafka、Elasticsearch、Zookeeper等就屬于這一類軟件,它們天生都是"分布式的",即可以通過添加機器節點來共同地分攤數據存儲和負載壓力。

為什么需要集群?

分布在不同區域的計算機,彼此之間通過網絡建立通信,相互協作作為一個整體對外提供服務,這就是集群,如果我們開發的系統具備這樣的能力,那么理論上就具備***橫向擴容的能力,系統的吞吐量就會隨著機器數增加而增長,那么未來當系統出現高負載的時候,就可以很好地應對這種情況。

[[236565]]

為什么CAP不能同時滿足?

通過上面分析,我們知道實現集群,其實就是采用多臺計算機來共同承擔和負載系統壓力,那么就涉及到多臺計算機需要參與一起處理數據,為了保證可用性,一般都會在每臺計算機上備份一份數據,這樣只要有一個節點保持同步狀態,那么數據就不會丟失,比如kafka分區多副本、Elasticsearch的副本分片,由于同一數據塊及其副本位于不用的機器,隨著時間的推移,再加上不可靠的網絡通信,所有機器上的數據必然會不完全一致,這個時候假如發生一種極端情況,所有的機器宕機了,又如何保證數據不丟失呢(其實只有兩種方法)?

1、保證可用性:選擇***臺恢復正常服務的機器(不一定擁有全部數據)作為可信的數據來源,快速恢復集群,即停機時間優于同步。

2、保證數據一致性:等待***臺擁有全部數據的機器恢復正常,再恢復集群,即同步優于停機時間,比如禁用kafka的unclean leader選舉機制就是這種策略。

其實當大多數機器不可用時,就需要在可用性和一致性之間進行妥協了,所以另一個更符合分布式系統的Base理論又被創造出來了。

如何解決分布式存儲問題?

當由多臺計算機組成的集群對外提供服務時,其實就是對外提供讀、寫的能力。

數據塊技術(data block)

為了將數據合理、均勻地寫到各個機器上,提高集群寫能力;為了將讀請求負載均衡到不同的節點,提高集群的讀能力;為了解耦數據存儲和物理節點,提高分布式讀寫并行處理的能力,聰明的工程師引入了一個邏輯數據存儲單位,統稱為數據塊,比如Kafka的分區(partion)、Elasticsearch的分片(shard),這樣的虛擬化大大提高了集群讀寫的靈活性。

備注:所以啊,名字不重要,知其所以然最重要。

協調節點(coordination node)

實際上當集群作為一個整體處理數據時,可能每一個節點都會收到讀寫請求,但是數據又是分散在不同的節點上,所以就需要每個節點都清楚地知道集群中任意一個數據塊的位置,然后再將請求轉發到相應的節點,這就是“協調節點”的工作。比如:Elasticsearch的master節點管理集群范圍內的所有變更,主分片管理數據塊范圍內的所有變更。

大多數投票機制(quorum)

百度百科:quorum,翻譯法定人數,指舉行會議、通過議案、進行選舉或組織某種專門機構時,法律所規定的必要人數,未達法定人數無效。

由于網絡分區的存在,這個機制被廣泛地應用于分布式系統中,比如集群節點之間選舉Master;數據塊之間選舉Header等;在分布式存儲中,也被稱為Quorum讀寫機制,即寫入的時候,保證大多數節點都寫入成功(一般的做法會選舉一個主數據塊(header),保證它寫成功,然后再同步到冗余的副本數據塊);讀取的時候保證讀取大多數節點的數據(一般的做法是由協調節點分發請求到不同的節點,然后將所有檢索到的數據進行全局匯總排序后再返回);由于讀寫都是大多數,那么中間肯定存在***的重疊數據,這樣就能保證一定能讀到***的數據。

從上面分析可以得出,只要大多數節點處于活躍可用狀態,那么整個集群的可用性就不會受到影響;只要大多數據塊處于活躍可用的狀態,那么就能持續地提供讀寫服務;只要有一個數據塊完成了同步狀態,那么數據就不會丟失;這其實就是通過一種冗余機制來嘗試處理fail/recover模式的故障,通俗點講就是容忍單點故障,至少需要部署3個節點;容忍2點故障,至少需要部署5個節點,機器節點越多分區容忍性就越強,頓悟了吧,嘿嘿,所以保證集群可用的前提就是有奇數個節點、奇數個數據塊保持活躍可用狀態,不然就無法選舉出master或header。

大多數投票機制運用起來也非常靈活,當分布式系統追求強一致性時,需要等待所有的數據快及其副本全部寫入成功才算完成一次寫操作,即寫全部(write all),可以理解一種事務保證,要么全部寫入,要么一個都不寫入,比如:kafka從0.11.0.0 版本開始, 當producer發送消息到多個topic partion時,就運用了這種機制,來保證消息交付的exactly-once語義,是不是很帥,而且這種情況下,從任意一個節點都能讀到***的數據,讀性能***;當分布式系統追求最終一致性時,只需等待主數據塊(leader)寫入成功即可,再由主數據塊通過消息可達的方式同步到副本數據塊。

為了能夠滿足不同場景下對數據可靠性和系統吞吐量的要求,***化數據持久性和系統可用性,很多組件都提供了配置項,允許用戶定義這個大多數的法定數量,下面我們就來談談一些常用組件的配置:

Elasticsearch 

由上圖可以看到,整個集群由三個運行了Elasticsearch實例的節點組成,有兩個主分片,每個分片又有兩個副分片,總共有6個分片拷貝,Elasticsearch內部自動將相同的分片放到了不同的節點,非常合理和理想。當我們新建一個文檔時:

1、客戶端向 Node 1 發送新建文檔的寫請求。

2、節點使用文檔的 _id 確定文檔屬于分片 0 。請求會被轉發到 Node 3,因為分片 0 的主分片目前被分配在 Node 3 上。

3、Node 3 在主分片上面執行請求。如果成功了,它將請求并行轉發到 Node 1 和 Node 2 的副本分片上。一旦所有的副本分片都報告成功, Node 3 將向協調節點報告成功,協調節點向客戶端報告成功。

這就是Elasticsearch處理寫請求的典型步驟順序,同時每種業務場景對數據可靠性的要求和系統性能也不一樣,所以Elasticsearch提供了Consistence配置項:

1、one:主分片處于活躍可用狀態就可以處理寫請求。系統吞吐量***,但數據可能會丟失,對數據可靠性要求不是很高的場景非常適合,比如實時的時序數據處理(日志)。

2、all:主分片和所有副本分片處于活躍可用狀態才允許處理寫請求。系統吞吐量***,但數據不會丟失。處理關鍵的業務數據非常合適。

3、quorum:必須有大多數的分片拷貝處于活躍可用狀態才允許處理寫請求。平衡系統吞吐量和數據可靠性,一般業務系統都使用這個配置。

Kafka

當向Kafka 寫數據時,producers可以通過設置ack來自定義數據可靠性的級別:

0:不等待broker返回確認消息。

1: leader保存成功返回。

-1(all): 所有備份都保存成功返回。

備注:默認情況下,為了保證分區的***可用性,當acks=all時,只要ISR集合中的副本分區寫入成功,kafka就會返回消息寫入成功。如果要真正地保證寫全部(write all),那么我們需要更改配置transaction.state.log.min.isr來指定topic最小的ISR集合大小,即設置ISR集合長度等于topic的分區數。

如果所有的節點都掛掉,還有Unclean leader選舉機制的保證,建議大家下去閱讀kafka《官方指南》設計部分,深入理解kafka是如何通過引入ISR集合來變通大多數投票機制,從而更好地保證消息交付的不同語義。

什么是集群腦裂?

對于分布式系統,自動處理故障的關鍵就是能夠精準地知道節點的存活狀態(alive)。有時候,節點不可用,不一定就是其本身掛掉了,極有可能是暫時的網絡故障;在這種情況下,如果馬上選舉一個master節點,那么等到網絡通信恢復正常的時候,豈不是同時存在兩個master,這種現象被形象地稱為“集群腦裂”,先留給大家下去思考吧。呵呵,明天要早起,碎覺了,大家晚安。

備注:設計一個正在高可用的分布式系統,需要考慮的故障情況往往會很復雜,大多數組件都只是處理了fail/recover模式的故障,即容忍一部分節點不可用,然后等待恢復;并不能處理拜占庭故障(Byzantine),即節點間的信任問題,也許區塊鏈可以解決吧,大家可以下去多多研究,然后我們一起討論,共同學習,一起進步。

寫在***

分享了這么多,請大家總結一下大多數投票機制的優點和缺點?歡迎評論區留言,哈哈,真的要睡覺了,晚安。 

責任編輯:武曉燕 來源: 博客園
相關推薦

2022-10-24 09:56:09

seleniumGrid分布式

2023-10-26 18:10:43

分布式并行技術系統

2014-07-10 09:28:57

光纖

2022-08-28 09:05:34

分布式存儲Ceph

2024-01-10 08:02:03

分布式技術令牌,

2019-10-10 09:16:34

Zookeeper架構分布式

2024-01-08 08:05:08

分開部署數據體系系統拆分

2024-01-09 08:00:58

2022-08-26 00:02:03

RocketMQ單體架構MQ

2023-05-12 08:23:03

分布式系統網絡

2023-09-14 15:44:46

分布式事務數據存儲

2022-03-21 19:44:30

CitusPostgreSQ執行器

2015-05-26 11:18:06

分布式系統可擴展性

2020-01-17 09:07:14

分布式系統網絡

2017-09-19 14:13:53

Snapshot數據庫HBase

2024-10-18 08:00:00

分布式系統背壓數據庫

2023-07-05 00:09:13

分布式存儲架構

2023-07-19 08:22:01

分布式系統數據

2023-02-11 00:04:17

分布式系統安全

2018-12-14 10:06:22

緩存分布式系統
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 超碰在线亚洲 | 久久久久久久久久毛片 | 欧美在线一区二区三区 | 欧美伊人影院 | 成人午夜av | 精品成人佐山爱一区二区 | 中文字幕日韩专区 | 欧美精品片 | 久久久蜜臀国产一区二区 | 激情的网站 | 国产精品久久久久不卡 | 国产一区二区三区久久久久久久久 | 在线观看免费国产 | 四虎最新 | 国产91网站在线观看 | 91久久精品一区二区二区 | 国产精品一区二区三区久久 | 精品欧美乱码久久久久久1区2区 | 毛片免费在线观看 | 国产真实乱对白精彩久久小说 | 在线视频成人 | 日韩在线大片 | 成人在线不卡 | 国产精品电影在线观看 | 欧美日韩成人影院 | 97日日碰人人模人人澡分享吧 | 国产视频中文字幕 | 久久久国产精品一区 | 国产欧美一区二区三区免费 | 欧美视频 亚洲视频 | 久久国产亚洲精品 | 久久精品久久久久久 | 久久久久国产精品 | 欧美一区二区三区在线观看 | 国产精品美女 | 日韩精品福利 | 欧美激情综合五月色丁香小说 | 国产精品久久久久久久久图文区 | 日韩专区中文字幕 | 日韩成人影院在线观看 | 日韩资源|