下一代云存儲系統技術白皮書
1 下一代云存儲系統簡介
1.1云存儲系統簡介
信息處理技術、互聯網技術、云計算技術的誕生與成長對各行各業產生著潛移默化的影響。互聯網時代,數據采集手段紛繁復雜,形態五花八門,半結構化與非結構化數據體量日趨增大,傳統的儲架構已經逐漸顯現出自身的固有局限。
在傳統數據中心中,以OLTP和OLAP為代表的數據庫應用占據了昂貴但又低效率的在線存儲設施,交易記錄、分析性數據則消耗了大量的后端存儲空間。異構的存儲設備難以應對大數據浪潮帶來需求浪潮,無法及時利用數據支撐業務決策,并在“大、智、云、移”的時代提供多樣化服務。
下一代云存儲系統融合分布式存儲技術,利用標準化硬件設施構造存儲池,虛擬化已有存儲設施空間,互聯互通,打破數據調度壁壘;在統一的系統下提供了對象、塊、和文件存儲服務;并且具有可靠性高、管理簡便的優點。同時,下一代云存儲系統具有靈活的擴展性,能夠提供PB到乃至EB級的存儲能力。
1.2云存儲系統設計目標
下一代云存儲系統從行業切實需求出發,面向數據中心私有云場景,實現大規模、大容量的存儲資源池,整合替代現有存儲設施,支撐各類OLTP或OLAP業務應用。為了能夠對各類決策支撐系統、研發測試系統提供有效支撐;突破隨機訪問海量數據的性能瓶頸;解決數據安全性、存儲平滑擴容的問題,下一代云存儲系統在規劃建設過程中具有以下幾點目標:
1.高性能
下一代云存儲系統首先需要有能力提供足夠的性能,能夠覆蓋到用戶大部分業務需求,滿足高并發或大量的業務數據分析等需求。
2.高可用性
下一代云存儲系統需要滿足更高要求的高可用性。存儲和數據高可靠性是業務活動連續開展的基礎支撐。在存儲發生故障時候,有相應的高可用機制來支撐和保障數據的自動恢復和動態遷移。
3.資源動態擴展
下一代云存儲系統能夠支撐資源的動態伸縮以及資源池的動態擴展,能夠按需分配,彈性擴展。在系統擴容的時候,能夠做到性能和容量的線性擴展,避免資源的浪費。
4.服務、接口的多樣性
下一代云存儲系統能夠提供多樣的存儲服務,包括塊設備服務來滿足數據庫類型的存儲要求;文件系統、對象等存儲服務來滿足半結構化數據和非結構化數據的存儲要求。因此,這就要求存儲能夠提供豐富的標準接口,包括文件系統接口(NFS、CIFS)、塊接口(iSCIS、FC)或者對象接口(S3、SWIFT)以及對內能夠提供標準的管理接口。
5.高可管理性
下一代云存儲系統在日常部署、管理、監控的環節能夠實現自動化和可視化,提高存儲資源服務的可管理性,包括資源分配、資源監控、故障告警等多方面的內容,提高運維管理人員的管理效率;并且逐步支持智能化的采集和分析,高效地利用現有資源,包括對存儲IOPS、存儲吞吐量以及存儲容量的使用進行動態的監測和預測,方便管理人員對存儲現有情況進行了解和及時對未來存儲的擴容進行規劃。
2 下一代云存儲系統架構
2.1云存儲系統總體方案架構
下一代云存儲系統的核心是統一管理存儲資源,面向云平臺,提供多樣化的數據服務。下一代云存儲系統將應用與底層存儲解耦,不依賴于傳統設備和應用廠商的綁定。在未來數據中心全面轉型,整體上云的過程中,實現存儲與計算、網絡資源的聯動,順應數據價值鏈向服務轉移。
圖 2-1 下一代云存儲系統架構示意圖
下一代云存儲系統主要由基于分布式架構的軟件定義存儲系統和輕量化異構存儲統一管理組件構成。
基于分布式架構的軟件定義存儲運行在標準的X86服務器之上,利用虛擬化技術,將集群中的存儲資源虛擬化為存儲池,并向上提供塊設備、文件和對象存儲服務。同時,軟件定義存儲具有高性能,能夠輕松應對各類高負載管理的要求,其中包括業務關鍵型應用與核心業務系統;多副本及強一致性技術的應用提供高可用特性;極強的橫向擴展能力則為業務擴張帶來的管理維護提供了極大的靈活性和便利。
輕量化異構存儲統一管理組件實現了分布式存儲和集中式存儲的統一自動化管理,分布式軟件定義存儲通過面向存儲統一管理組件開放存儲系統的控制接口,實現存儲系統的監控與運維。通過開放的接口,異構存儲統一管理組件可以實現分布式存儲系統的資源劃分與服務編排,并對集中式存儲設備劃分基于不同QoS策略的虛擬卷服務于云平臺,實現與計算、網絡的聯動。
2.2系統組件及功能
2.2.1基于分布式架構的軟件定義存儲系統
基于分布式架構的軟件定義存儲技術集中提供包括對象、塊、和文件在內的多種存儲服務,并且具有可靠性高、管理簡便的優點,并且具有靈活的擴展性,能夠提供PB到乃至EB級的存儲能力。
基于分布式架構的軟件定義存儲技術把所有服務器的硬盤虛擬化成為若干個資源池,提供虛擬卷的創建/刪除和快照等功能,提供北向虛擬卷形式的存儲服務。
軟件定義存儲系統分為硬件設備層、引擎驅動層、特性功能層、服務接口層以及監控管理層五個層面,具體的功能架構圖如下所示:
圖 2-2 軟件定義存儲系統層級示意圖
1.硬件設備層
基于分布式架構的軟件定義存儲系統通基于標準的X86服務器,配以不同的磁盤介質,包括傳統的機械磁盤HDD、SATA-SSD以及PCIE-SSD等,來提供不同等級的IOPS和帶寬等服務性能,同時10GE網卡的廣泛應用也讓系統在傳輸和重建過程中具有更快的速度。
2.驅動引擎層
基于分布式架構的軟件定義存儲系統采用分布式算法(例如CRUSH、DHT等)將數據趨近于隨機的分散于集群中的所有磁盤中,避免了數據存儲熱點的產生。數據的存放通過多副本提供高可用性,每個副本分散于不同的服務器上,并且根據業務需求能夠遵循強一致性。單個硬盤或節點的故障不影響業務的連續性,一旦發生故障,系統會自動重建。
3.特性功能層
基于分布式架構的軟件定義存儲系統能夠實現精簡配置,即支持提前劃分存儲卷的大小,但是加分配時按照數據寫入的規模自動增長,節省可用存儲空間。在卷級層面可以實現實時QoS,調整附加在卷上的限制屬性,同時為了業務的需要,系統也支持在線擴容和縮容,保證其他卷能夠獲取足夠的空間。除此之外,還有快照、容災、備份等功能。
4.服務接口層
基于分布式的軟件定義存儲系統能夠提供多樣化的存儲服務,支持基于開放Linux平臺的SCSI設備輸出,支持iSCSI接口協議,支持FC接口協議和基于FC的硬件。
5.運維管理層
基于分布式架構的軟件定義存儲系統能夠通過向用戶提供可視化交互界面來完成系統的自動化配置、在線升級、告警、監控和日志等功能。包括系統日志和操作日志。系統日志記錄重要的系統事件,操作日志記錄操作員行為,便于排錯、審計以及跟蹤。
2.2.2輕量化異構存儲統一管理組件
輕量化異構存儲統一管理組件基于Openstack Cinder組件,實現了對后端存儲資源的統一管理,來提供業務驅動、自動化的數據服務。輕量化異構存儲統一管理組件將應用與底層存儲解耦,解除設備廠商的綁定,打破異構存儲設備之間的壁壘,將存儲功能應用化,支持文件、塊、對象等類型存儲資源分配服務。
在云計算應用場景下,從租戶的角度看來,將不同架構的存儲封裝起來,無論是傳統的集中式存儲還是分布式存儲都進行統一管理并向上提供服務。
圖 2-3輕量化異構存儲統一管理組件架構示意圖
輕量化異構存儲統一管理組件向下可以將各設備中可提供相同能力的存儲資源聚集起來,進行統一管理。這一功能基于Openstack的Cinder組件,通過不同存儲廠商提供的面向OpenStack的Cinder的驅動來獲取不同存儲設備的基本信息,包括磁盤類型、空間大小、服務能力等。在獲取不同的存儲設備信息之后,將性能、服務相近的存儲設備進行編排、分組,以供后續使用。
輕量化異構存儲統一管理組件可以實現業務部署自動化、運維監控智能化。其中,業務部署自動化是指支持運維人員編輯保存服務模板,目的是為了簡化創建調用存儲的流程。在申請存儲資源的過程中,僅需要輸入存儲容量和卷的數量即可完成資源的申請,統一管理組件會根據事先編排好的模板自動調用不同模塊來完成具體工作。同時該組件也支持運維監控的智能化,即針對不同的存儲池,不同的虛擬卷,都能夠實時監控性能與故障,對存儲卷進行有效性、空間、數據可用性等方面進行的監控管理;支持在存儲系統的各級軟硬件產生故障時,由控制臺向管理員告警提示;支持卷級的QoS編排,保證不同租戶之間的服務質量。
輕量化異構存儲統一管理組件北向通過REST接口與虛擬化平臺或者容器云平臺完成兼容,實現存儲資源服務的統一發放。OpenStack的不同組件如Cinder、Nova等與異構存儲管理組件,完成卷的劃分與掛載,實現云硬盤的分配或者虛擬機實例創建在云硬盤中;Kubernets中Persist Volume 存儲系統則通過Cinder提供的插件,實現應用和服務的狀態保存。
3 下一代云存儲系統特性
3.1高性能
下一代云存儲系統基于主流的開源分布式存儲技術以及開源云平臺中的存儲管理模塊,充分滿足國內企業自主可控的要求。下一代云存儲系統能夠勝任高并發、高效率的需求,與主流NVMe閃存相結合,突破單點性能瓶頸,適應多種場景需求。
3.1.1 I/O并行提升性能
下一代云存儲系統提供了類似于條帶化技術的并行I/O功能,滿足支持業務開展的高性能需求。獨立存儲設備的吞吐量限制,極大影響了存儲的性能和伸縮性,所以存儲系統一般都支持把連續的信息分片存儲于多個設備以增加吞吐量和性能。在下一代云存儲系統中,數據會均勻分布到存儲池中所有的硬盤上。當某臺應用服務器進行讀寫時,集群中所有的節點都會對其提供服務,這樣能很好地保證IO并發。
3.1.2閃存的應用與分級存儲
下一代云存儲系統支持各類接口閃存介質,通過閃存介質的使用,來提供高性能的IO。當前閃存存儲開始進入開始逐漸進入數據中心市場,如表3-1所示,閃存相比HHD具有如下差別:
表 3-1 閃存與HDD特性對比
固態閃存SSD作為新的存儲技術,相比HDD具有超快的數據訪問速度,隨機數據訪問速度比HDD快100多倍,響應時間從毫秒級縮短到亞毫秒級(0.1ms),將IOPS從HDD的200-300提升至數萬。SSD的高性能充分滿足了存儲系統I/O負荷瓶頸帶來的困擾。
SSD在下一代云存儲系統中的應用有兩種不同的方式,均能提升性能,一是作為讀寫緩存,二是作為數據盤直接存儲數據。
在第一種情況下,下一代云存儲系統采用緩存算法對熱點數據進行優化,使熱點數據盡可能駐留在高速閃存存儲上,以提升系統性能;而對于訪問不頻繁的數據則從高速存儲中遷移到低速機械磁盤做持久化存儲。這種方式對于大量讀取場景下的業務系統具有較大的提升;或者將高速存儲設備作為全局緩存,數據先寫入高速存儲中,在適當的時機再將數據同步入后端存儲中,這種方式同樣可以在滿足性能要求的前提下明顯降低存儲成本。
圖 3-1 下一代云存儲系統的多級緩存
面對對性能有強烈需求的業務場景,第二種全閃存模式能夠大幅度增強對各類高要求負載的管理,其中包括業務關鍵型應用、核心業務系統等等。這種情況下,可以充分發揮閃存存儲的高性能讀寫,但是成本較高。
3.2高可靠性
3.2.1數據多副本存儲
下一代云存儲系統采取多副本備份機制替換傳統的RAID模式來保證核心數據的完整性。同一個數據,在系統的不同節點的不同磁盤上會有大于等于三個副本的存儲,這樣,當節點或者磁盤產生故障的時候,數據可以從冗余的副本中讀取并恢復。同時所有的數據均勻的分布在所有的節點上以達到負載均衡的效果,避免局部熱點的出現。在下一代云存儲系統具體部署時,所有的副本采取跨機架同步分布策略,確保單一機架掉電后的數據可用性。
3.2.2保持數據一致
下一代云存儲系統支持強一致性和最終一致性兩種模型,面向不同的業務場景需求。保證租戶成功寫入一份數據時,幾個副本都保持一致,在讀取數據時,無論從任何一個副本上進行,都能夠保證取到最新的、可用的數據。強一致性情況下,保證對副本的讀寫操作會產生交集,從而保證可以讀取到最新版本;無論更新操作實在哪一個副本執行,之后所有的讀操作都要能獲得最新的數據。最終一致性情況下,保證用戶最終能夠讀取到某操作對系統特定數據的更新,針對的是讀寫都比較頻繁的場景,是一個比較折中的策略。
3.2.3服務質量保證(QoS)
無論任何行業,業務的連續性與高質量是主流需求,下一代云存儲系統提供了多種場景下的服務質量保證手段:
1、提供面向卷級的服務器訪問QoS,充分避免非關鍵應用占用過多帶寬;
2、在數據較長時間處于不一致的狀態時,自動觸發數據重建,在此過程中支持QoS,保證重建過程中占用過多帶寬,避免影響關鍵業務的穩定運行。
3.2.4副本安全邊界
規模龐大的分布式系統,必須考慮多故障的安全隱患,以統計學的規律和概率分布來看,磁盤數量越多,磁盤發生故障的概率越大,甚至幾個磁盤同時發生故障。不斷的故障會造成系統大部分資源都用于數據重建,影響業務的穩定運行。因此,下一代云存儲系統中,為保證系統達到預期的可靠性目標,必須在保證高并發的前提下,盡量縮小副本分布的磁盤范圍,即設定安全邊界,以防止數據丟失的風險陡然上升。
副本安全邊界有兩種模式,一是基于池級的安全邊界管理,設定存儲池最大跨越的磁盤數量;二是基于卷級的安全邊界管理,即設定虛擬卷最大跨越的磁盤數量。
3.3可擴展性
下一代云存儲系統支持大規模擴展,最低三節點,直至上千節點,隨著存儲設備數量的增長,整個系統的吞吐量和IOPS等性能指標也同時會隨之增長。并且容量和性能呈線性擴展。一旦需求有所變化,即可通過模塊化的方式添加更多的存儲資源和計算資源。在擴容和縮容的過程中間,分布式算法保證了數據的負載均衡,結合自動的QoS策略,在用戶無感知的情況下,保證不會與現有業務產生影響,保障系統的穩定運行。
圖 3-2下一代云存儲系統的橫向擴展
3.4易管理性
3.4.1兼容第三方管理監控接口
業界主流Web管理界面主要包括SOAP和REST標準,其中后者架構更為輕便,新生系統多采用后者。VMware體系至今仍以SOAP標準為主,而面向OpenStack的接口則遵循REST標準。下一代云存儲系統所提供的接口能夠兼容這兩種標準。
3.4.2虛擬化和私有云應用支持
下一代云存儲系統支持主流操作系統,可以部署在RedHat、SUSE、CentOS以及Ubuntu上。虛擬化平臺則支持VMware、Hyper-V以及KVM等。支持通過RESTful API標準接口與OpenStack 的Cinder組件和SWFIT組件進行交互,向私有云應用提供存儲支持。
3.5高級功能
3.5.1自動精簡配置
下一代云存儲系統支持自動精簡配置功能,在創建邏輯卷時,并不真實占用實際物理資源,而是在邏輯卷使用過程中,按需實時分配實際物理空間資源,節約了存儲資源,簡化了存儲規劃難度。在存儲系統的使用過程中,租戶在資源申請階段往往無法準確預估在業務廣泛展開后的具體需求,因而會多申請部分的存儲空間作為緩沖,而這部分資源往往無法做到物盡其用,存在了大量的浪費現象。在實際使用中,可以設置容量閾值,當剩余存儲容量低于閾值時,進行提示。
圖 3-3 下一代云存儲精簡配置
3.5.2卷級快照和鏈接克隆
下一代云存儲系統提供卷級的快照功能,進行增量備份,并能根據需要快速恢復到每一個備份點,對業務中斷后提供快速的恢復功能保證,加強系統整體的連續性,提供了業務質量保證的手段與方法。
同時此系統還支持鏈接克隆的機制,基于一個快照創建出多個克隆卷,創建出來的克隆卷與原始卷中的數據內容一致,克隆卷的修改不會影響原始卷,用戶既可以通過快照來還原卷以恢復丟失的數據,也可以從快照來創建模板,直接啟動新的虛擬機以保證業務的連續性。
圖 3-4下一代云存儲系統采用增量快照
3.5.3全局負載均衡
下一代云存儲系統采用的分布式架構使得數據的IO操作均勻分布在不同服務器的不同硬盤上,避免了局部熱點的出現,實現全局的負載均衡。
系統將數據塊打散存放在不同服務器的不同硬盤上,冷熱不均的數據均勻分布在不同的服務器上,不會出現集中的熱點;數據的分配算法保證主副本與其余副本在不同服務器和不同硬盤上均勻分布;同時,在節點或者硬盤故障時,在數據重建的過程中,也實現全局負載均衡。
4 下一代云存儲系統部署方案
4.1部署拓撲
數據中心內部系統的核心要求是“穩定可靠”,一是指系統在運行過程中有能力提供連續可靠的服務,長時間無故障運行;二是指當故障發生之后,有能力快速定位,及時排查,故障范圍不蔓延。
分離式部署的方式,使得系統與云平臺系統相獨立,避免了計算和存儲爭搶CPU/內存/網絡等物理資源,一旦某一方資源需求驟升導致的另一方資源枯竭,從而影響性能并在整個基礎架構中產生的漣漪效應;和在超融合部署方式在集群規模較大后,網絡、硬盤、服務器發生故障的概率都會增大;以及數據重刪、壓縮、加密糾刪碼等功能、故障的自修復和數據功能實現都會消耗一定的系統資源,導致性能下降和抖動等問題。
分離式部署相比超融合方式的優點:
表4-1分離式部署與超融合的對比
從業務穩定、系統可靠的角度出發,下一代云存儲系統采用分離式部署的方式,即存儲系統服務器獨立于計算資源服務器。這一部署方式使得存儲與計算相獨立,因而兩者之間的故障不會相互影響,易于后期運維故障排查;并且計算與存儲的配比可以根據業務場景的需求自行調配,靈活程度高,如果需要擴展資源的話,也可以單獨對存儲進行擴展;同時,計算與存儲分層管理,也清晰了管理權限。具體部署架構如下所示:
圖4-1下一代云存儲系統物理部署方案
其中,存儲管理節點需要在兩個以上的節點上部署以保證高可用,同樣,輕量化異構存儲統一管理組件也需要在兩個節點上進行部署來提供高可用。
4.2硬件規格
下一代云存儲系統基于標準的X86服務器,軟硬件解耦,解除廠商綁定,支持設備利舊,保護歷史投資。下一代云存儲系統對硬件平臺具有如下基本要求:
1.運行在標準的X86服務器上;
2.基于分布式架構的軟件定義存儲系統集群內部服務器硬盤數量必須一致;
3.軟件定義存儲正常運行需要占用單個服務器的處理器的核心數量需大于
4+N(N是硬盤個數,一個硬盤對應一個核心),例如:單個服務器5個硬盤,共計需要4+5=9個核心,則服務器需配置12核處理器;輕量化異構存儲統一管理服務需要8核以上的處理器;
4.軟件定義存儲正常運行的服務器的物理內存需滿足如下條件:
大于10GB +(N*2GB)(N是服務器上所有硬盤總計存儲容量,單位TB),例如:單個服務器5個硬盤,每個硬盤4TB,則共計需要10GB+20GB*2=40GB,服務器需要配置64GB物理內存;輕量化異構存儲統一管理服務需要16GB以上的物理內存;一般情況下,隨著內存容量的增大,性能也會越好;
5.分布式架構的存儲集群性能很大程度上取決于存儲介質的有效選擇。下一代云存儲系統內部服務器須有板載PCIe插槽,支持使用快速的SSD硬盤作為緩存來為HDD加速,或者直接采用全閃存架構。使用SSD作為緩存加速的場景下,通常建議一個SSD對應3~4塊HDD。使用PCIe/NVMe SSD作為緩存加速的場景下,通常建議一個SSD對應8~10塊HDD。
6.服務器需要四個網口支持雙平面,并且兩兩綁定(配置網口聚合(Bond),模式為802.3ad(Bond模式為4),此模式提供了容錯性,提供高網絡連接的可用,同時提供了相當的性能。具體的存儲平面帶寬要求不低于10Gbps。
4.3組網方案及網絡規劃
由于數據的機密性與敏感性,業務相互之間的隔離對于在數據中心內部非常重要。在數據中心內部,數據的訪問需要受到嚴格控制,必須進行業務與管理的網絡相互隔離。管理網段與租戶網絡三層互通,租戶通過管理網段訪問下一代云存儲系統的Portal界面并下發增、刪、檢、查等管理指令;業務網段則負責業務數據的傳輸,當存儲空間以卷的形式通過業務網段掛載給前端業務系統,并在此網段上提供服務。
按照分布式存儲的范式,下一代云存儲系統的管理和業務分屬兩個網段,互相獨立,互不影響,數據傳輸只在業務網段上進行,管理與業務通過服務器通信,無法通過網絡互訪。
圖4-2下一代云存儲系統網絡拓撲示意圖
在業務網段上,規劃每個服務器由兩根網線分別連接到兩臺交換機。在管理網段上,規劃每個服務器由兩根網線分別連接兩臺交換機。通過節點級的雙網卡主備以及集群級的交換機主備來提供網絡高可靠性。兩個網段使用獨立的物理網卡進行隔離,在條件不滿足的情況下使用不同VLAN隔離。
依據木桶效應,一個系統的整體性能上限往往是由系統中的薄弱環節決定。當集群采用混合存儲的配置時,標準的10Gbps高速網絡能夠滿足相當規模的集群在負載均衡、數據重建時的壓力;然而,當集群采用全閃存架構時,硬盤性能將大幅提升,此時標準的10Gbps網絡有可能會成為系統中的短板,56 Gbps InfiniBand網絡乃至更高速的100 Gbps網絡,近似無阻塞通信,突破存儲系統內部交換的瓶頸。在InfiniBand網絡中,通信時延控制于納秒級,計算存儲信息及時傳遞,配合SSD的高速讀寫,具有可觀的性能。
5 下一代云存儲系統應用場景
5.1下一代云存儲系統和虛擬化平臺
OpenStack提供標準的API接口來管理整個底層架構資源。OpenStack 提供塊設備存儲服務的組件Cinder,本質上是一個資源管理組件,將后端不同的存儲設備進行封裝,向外提供統一的API,本質上并不是一個存儲系統,而是使用插件的方式,結合不同后端存儲的驅動提供存儲服務,核心是對卷的各種操作與管理。包括通過虛擬卷的方式為虛擬機提供云硬盤,或者可以用于存儲并啟動虛擬機實例。在虛擬機的各個生命周期中,具體能夠實現如下幾種操作:
1、在創建虛擬機的時候,需要對卷進行創建和掛載操作;
2、在使用虛擬機的時候,需要對卷進行擴展、備份操作;
3、在刪除虛擬機的時候需要對卷進行分離、刪除操作。
通過Cinder組件,用戶可以方便、高效地管理虛擬機數據。下圖展示了Cinder組件使用后端存儲的示意圖。計算虛擬化組件Nova與存儲管理組件Cinder之間通過RabbitMQ消息隊列進行通信。:
具體的調用流程如下:
1、用戶通過頁面或者命令行發出存儲管理請求,并通過Cinder-API發出;
2、Cinder-API通過RabbitMQ消息隊列將此消息加入Cinder-scheduler中,依次進行調度;
3、Cinder-scheduler通過RabbitMQ消息隊列與Cinder-Volume通信,將創建、掛載等卷管理請求進行傳遞;
4、Cinder-volume收到存儲資源請求之后,向后端的下一代云存儲系統通信,進行操作,執行請求。
自此,完成了用戶的一個存儲資源管理操作請求
圖5-1下一代云存儲系統在OpenStack中的應用
5.2下一代云存儲系統與容器云平臺
容器虛擬化技術已經成為一種被大家廣泛認可的服務器資源共享方式,容器技術可以在按需構建容器技術操作系統實例的過程當中為系統管理員提供極大的靈活性。容器技術為應用程序提供了隔離的運行空間,每個容器內都包含一個獨享的完整用戶環境空間,并且一個容器內的變動不會影響其他容器的運行環境。
下一代云存儲系統通過容器引擎卷插件或者編排調度的API接受北向的創建、刪除、加載、卸載和遷移數據卷等實際的存儲操作請求,并傳遞給底層的數據平面去實現。Kubernetes作為其集群管理工具,基于其插件化的設計,將有狀態的數據保存在以 Persistent Volume(PV)為基礎的存儲系統。