成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

簡單介紹Ceph分布式存儲集群

存儲 存儲軟件 分布式
在規劃Ceph分布式存儲集群環境的時候,對硬件的選擇很重要,這關乎整個Ceph集群的性能,下面梳理到一些硬件的選擇標準,可供參考。

在規劃Ceph分布式存儲集群環境的時候,對硬件的選擇很重要,這關乎整個Ceph集群的性能,下面梳理到一些硬件的選擇標準,可供參考:

[[249458]]

1.CPU選擇

Ceph metadata server會動態的重新分配負載,它是CPU敏感性的,所以Metadata Server應該有比較好的處理器性能 (比如四核CPU). Ceph OSDs運行RADOS服務,需要通過CRUSH來計算數據的存放位置,replicate數據,以及維護Cluster Map的拷貝,因此OSD也需要合適的處理性能 Ceph Monitors 簡單的維護了Cluster Map的主干信息所以這個是CPU不敏感的。

2.RAM選擇

Metadata servers 以及Monitors 必須能夠快速的提供數據,因此必須有充足的內存(e.g., 1GB of RAM per daemon instance). OSDs 在執行正常的操作時不需要過多的內存 (e.g., 500MB of RAM per daemon instance);但是 執行恢復操作時,就需要大量的內存(e.g., ~1GB per 1TB of storage per daemon). Generally, 而且是越多越好。

[[249459]]

3.Data Storage選擇

規劃數據存儲時要考慮成本和性能的權衡。同時OS操作,同時多個后臺程序對單個驅動器進行讀寫操作會顯著降低性能。也有文件系統的限制考慮:BTRFS對于生產環境來說不是很穩定,但有能力記錄journal和并行的寫入數據,而XFS和EXT4會好一點。

提示:不推薦單個磁盤的分區上運行多個OSD。不推薦單個磁盤的分區上運行一個OSD和一個監視器或元數據服務。

存儲驅動器受尋道時間,訪問時間,讀取和寫入時間,以及總吞吐量的限制。這些物理限制會影響整個系統的性能,尤其是在恢復過程中。我們建議為操作系統和軟件使用專用的驅動器,并且為你在主機上運行每個OSD守護分配一個驅動器。大多數“慢OSD”的問題的產生是由于在一個操作系統同一驅動器上運行多個OSDs和/或多個日志。

由于解決性能問題的一小部分的成本可能超過額外的磁盤驅動器的成本,因此你可以加快你的的集群設計規劃,為了避免OSD存儲驅動器負荷過重。

在每個硬盤驅動器上同時運行多個Ceph的OSD守護程序,但是這可能會導致資源爭用,并降低整體吞吐量。你可能把日志和對象數據存儲在相同的驅動器上,但這樣可能會增加所花費在記錄寫入操作和發送ACK給客戶端的時間。在CEPH可以ACK對于寫入操作前,Ceph必須把操作寫入到日志。

BTRFS文件系統的日志數據和對象數據的同時可以寫,而XFS和ext4的不能。Ceph的推薦做法,分開在單獨的驅動器上運行操作系統,OSD數據和OSD日志。

4.固態硬盤選擇

性能改進的機會之一是使用固態硬盤(SSD),以減少隨機訪問時間,讀取等待時間,同時吞吐量加速。固態硬盤每GB的費用與硬盤驅動器相比往往超過10倍之多,但固態硬盤往往表現至少比硬盤驅動器快100倍的訪問時間。

固態硬盤沒有移動機械部件,所以他們不需要受同類型硬盤驅動器的限制。盡管固態硬盤有明顯的局限性。重要的是考慮其連續讀取和寫入的性能。當存儲多個OSDs的多個日志時,有400MB/s的順序寫入吞吐量的SSD的性能,相比機械盤120MB/s的順序寫入吞吐量,SSD更好、更快。

固態硬盤的OSD對象存儲成本高昂,通過存儲一個OSD的日志在一個單獨的硬盤驅動器SSD和OSD的對象數據上時,OSDs上可能會看到一個顯著的性能提升。OSD日志配置默認在/var/lib/ceph/osd/$cluster-$id/journal里。你可以掛載這個路徑到SSD或SSD的分區上,將日志文件和數據文件分別存放在不同的磁盤。

5.Networks選擇

建議每臺機器最少兩個千兆網卡,現在大多數普通硬盤吞的吐量都能達到100MB/s,網卡應該能處理所以OSD硬盤總吞吐量,所以推薦最少兩個千兆網卡,分別用于public network和cluster_network。集群網絡(最好別連接到互聯網)用于處理由數據復制產生的額外負載,并且有助于阻止拒絕服務攻擊,拒絕服務攻擊會干擾數據歸置組,使之在OSD數據復制時不能回到active+clean狀態。請考慮部署萬兆網卡。通過1Gbps網絡復制1TB數據耗時3小時,而3TB(一個典型的驅動配置)需要9小時,與之相反,如果使用10Gbps復制時間可分別縮減到20分鐘和1小時。

在一個PB級集群中,OSD磁盤失敗是常態,而非異常;在性價比合理的前提下,系統管理員想讓PG盡快從degraded(降級)狀態恢復到active+clean狀態。采用10G網卡值得考慮使用。每個網絡的頂級機架路由器到核心路由器通信應該有更快的吞吐量,例如,40Gbps~100Gbps。

6.其他注意事項:

可以在每臺主機上運行多個OSD進程,但應該確保OSD硬盤的吞吐量總和不超過客戶端讀取或寫入數據所需的網絡帶寬。也應該考慮在每個主機上數據的存儲率。如果一個特定的主機上的百分比較大,它可能會導致問題:為了防止數據丟失,會導致Ceph停止操作。

當每臺主機上運行多個OSD進程時,還需要保證內核是最新的。 當每臺主機上運行多個OSD進程時(如>20)會產生很多的線程,特別是進行recovery和relalancing操作。許多Linux內核默認線程限最大數量比較小(例如,32k的)。如果您遇到這方面的問題,可以考慮把kernel.pid_max設置的高一點。理論上的最大值為4,194,303。

責任編輯:武曉燕 來源: 今日頭條
相關推薦

2023-01-03 07:57:27

2018-01-30 09:07:36

Ceph分布式存儲

2019-04-30 09:17:31

Ceph存儲OSD

2022-08-28 09:05:34

分布式存儲Ceph

2018-10-29 12:42:23

Ceph分布式存儲

2021-08-07 05:00:20

存儲系統

2020-10-20 09:38:15

分布式存儲Ceph

2018-08-02 08:42:57

分布式存儲Ceph

2021-07-04 07:07:06

Ceph分布式存儲架構

2017-10-27 08:40:44

分布式存儲剪枝系統

2018-05-08 08:57:36

分布式存儲集群

2014-05-19 16:41:29

紅帽

2018-07-16 09:00:06

Ceph運維開源

2017-06-06 14:25:54

CentOS 7Ceph分布式存儲系統

2020-03-12 19:00:48

Ceph分布式存儲

2018-03-08 11:10:33

分布式存儲Ceph

2018-06-28 08:18:56

Ceph運維存儲

2024-08-12 16:20:27

2015-05-12 13:03:54

開源分布式存儲HDFS

2022-06-21 08:27:22

Seata分布式事務
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 羞羞视频在线观看免费观看 | 人人爽人人爽人人片av | 爱高潮www亚洲精品 中文字幕免费视频 | 天天操妹子 | 亚洲天堂一区二区 | 黄色片在线观看网址 | 久久精品这里精品 | 国产成人免费视频网站视频社区 | 精品欧美一区二区三区久久久小说 | 亚洲国产精品一区二区三区 | 久久久精品国产 | 国产精品视频一区二区三区不卡 | 国产精品欧美日韩 | 精品视频在线一区 | 久久国产精品久久久久久 | 亚洲性人人天天夜夜摸 | 亚洲第一黄色网 | 亚洲综合日韩精品欧美综合区 | 欧美成人a | 91丨九色丨国产在线 | 久久日韩粉嫩一区二区三区 | 亚洲精品电影网在线观看 | 久久在线 | 日韩不卡一区二区三区 | 伊人伊人伊人 | 成人免费精品视频 | 99精品国产一区二区三区 | 国产一区二区三区在线 | 91亚洲国产成人精品一区二三 | 亚洲综合热 | www.887色视频免费 | 亚洲精品中文字幕av | 日韩一区在线播放 | 久久新| 日本视频在线播放 | 色婷婷综合久久久中字幕精品久久 | 自拍视频精品 | 欧美黄色精品 | 亚洲1区 | 伊人精品在线 | 国产四区|