成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

開源 | 攜程 Redis On Rocks 實踐,節省 2/3 Redis成本

開發 開源
隨著SSD磁盤性能的不斷提高,NVMe SSD的隨機讀寫延遲也僅有幾十微秒,與redis的固有延遲(100~200us)相當,用SSD作為存儲介質也可以達到較低的延遲,同時節省成本。

作者簡介

patpatbear,攜程軟件技術專家,負責攜程緩存內核的維護,熱愛開源,專注于高性能、分布式NoSQL系統的建設和應用。

一、背景

redis使用內存作為存儲介質,具有良好的性能和低延遲,但其內存容量通常成為瓶頸,且內存價格較高,導致redis使用成本較高。

隨著SSD磁盤性能的不斷提高,NVMe SSD的隨機讀寫延遲也僅有幾十微秒,與redis的固有延遲(100~200us)相當,用SSD作為存儲介質也可以達到較低的延遲,同時節省成本。

因此我們研發了ROR(Redis-On-Rocks)產品,通過對redis內核增強以支持數據冷熱交換,使用磁盤擴展緩存容量,可節省約2/3成本,而性能也能滿足大多數業務需求。

二、ROR簡介

ROR核心思路很簡單:在redis codebase基礎上擴展冷熱交換功能,實現redis數據冷熱多級存儲,降低緩存的綜合使用成本。

ROR將數據分為冷熱兩部分:

  • 熱數據沿用redis引擎,使用內存存儲,數據結構和原生redis完全一致
  • 冷數據選用RocksDB引擎,使用磁盤存儲,以subkey為粒度存儲在RocksDB中

ROR負責冷熱數據的交換:

  • 換入(從RocksDB到redis):當客戶端訪問冷數據,則將RocksDB中的數據換入到redis中,ROR把命令依賴的數據換入到redis,后續命令執行與原生redis一致。
  • 換出(從redis到RocksDB):當內存用量超過maxmemory之后,則將熱數據換出到RocksDB中,ROR冷熱交換算法采用了redis原生的LFU算法,原本被redis evict的數據將被交換到內存中。

圖片

由于ROR繼承了redis的數據結構和命令實現,只負責冷熱數據交換,因此可以兼容幾乎所有的redis命令,可快速跟進redis官方新特性。

三、與RoF對比

從長遠發展考慮,redis是事實上的緩存標準,緩存內核基于社區開源redis更便于跟進社區redis演進,因此ROR選擇了基于redis基礎上擴展冷熱交換能力。

RedisLabs的商業產品Redis-on-Flash(RoF)與ROR設計思路類似,但是調研之后,我們發現RoF在成本、通用性、性能等方面并不能滿足我們的需求。

3.1 成本

RoF把value保存在磁盤、key保留在內存主表,可以方便地兼容dbsize、scan、randomkey等命令,但占用的內存量會隨著dbsize線性上升。

冷數據key保存在內存主表(hashtable),每個key的輔助指針、robj等平均占用約50B,生產String類型平均value大小為512B。從成本的角度看,按照key占內存10%,value占90%計算

  • 換出80%value,可減少72% (80%*90%) 內存
  • 換出80%冷key,可繼續減少29% (10%*80%/(100%-72%))內存

因此ROR并不把冷數據的key保存在內存,而是保存到RocksDB中單獨的meta column family。

考慮到meta  column family訪問比較頻繁,且只存儲type、expire之類的少量元數據,因此用少量內存(block cache)可以緩存多數冷key。

經驗證,分配256MB block cache后,把冷數據的key存儲到RocksDB并不會降低整體QPS,但會增加IO線程的CPU消耗,由于redis宿主機cpu利用率只有10%,用cpu換內存是可以接受的。

3.2 通用性

為了避免重復緩存,RoF禁用了RocksDB層的table cache和文件系統層的page cache。這意味著訪問冷key時必須進行IO操作,因此冷key和熱key的訪問延遲會有較大區別。

為了提高通用性,ROR合理利用RocksDB層的table cache和操作系統層的page cache,盡可能利用未被占用的內存,減少訪問冷key和熱key之間的延遲差距。

實際上,無論是DBA還是業務方,都很難準確預測緩存集群是否存在明顯的冷熱特征。ROR適用于通用場景,能夠大大減少溝通成本和業務方關于延遲的擔憂。

在redis遷移至ROR時,我們并不評估應用程序是否具有冷熱特征,只要業務QPS在redis的一半以下,對P99延遲不是非常敏感,就可以將其遷移到ROR。

3.3 性能

RoF按key粒度存儲,key與RocksDB key一一對應;而ROR按subkey粒度存儲,subkey都與RocksDB key一一對應。

對于HSET、HGET等聚合類型命令,RoF需要換入換出整個key,而ROR只讀寫必要的subkey,因此讀寫放大遠低于RoF,QPS和延遲也優于RoF。

以下為ROR、RoF在大壓力(100線程不限QPS)和普通壓力(1000線程10000QPS),讀寫純冷數據的QPS和延遲。可以看出:

  • 大壓力情況下,ROR HGET、HSET命令QPS約為RoF的2~3倍
  • 普通壓力情況下,ROR延遲約300~500us,遠低于RoF 14~120ms 延遲

場景\方案

ROR

RoF

HGET

100thd

QPS=22134

LAT(mean,p99)=4762 27495(us)

QPS=10195

Latency(mean,p99): 9730 16521(us)

1wqps

QPS=9968

LAT(mean,p99)=343 

969(us)

QPS=9956

Latency(mean,p99): 14270 100746(us)

HSET

100thd

QPS=26182

Latency(mean,p99): 

4034 21802(us)

QPS=7994
Latency(mean,p99): 12250 27492(us)

1wqps

QPS=9969

Latency(mean,p99):

511 4437(us)

QPS=7806
Latency(mean,p99): 119396 242467(us)

測試說明:

  • 數據:hash:5,000,000 (key count) * 2KB (per key,5個field,每個filed 400B)
  • 配置:ROR的maxmemory設置為200MB;RoF有最小內存限制,設置為2G
  • 場景:a)100thd:壓力測試,100客戶端并發,不限速測試;b)1wqps:模擬常規訪問,1000客戶端,限速1W QPS測試

對于超大的聚合key,RoF將整個key加載到內存中,會有明顯的延遲尖刺(可達秒級);而ROR只將必要的subkey換入內存,則不會有明顯的延遲尖刺。

多數使用redis的業務對延遲比較敏感,不能接受過大延遲尖刺。

場景\方案

ROR

RoF

HGET 

hugehash 

field

<1ms

1.48s

LPOP 

hugelist

<1ms

0.704s

測試說明:

  • hash:共有1,000,000個元素,每個元素128B
  • list:共有1,000,000個元素,每個元素128B

四、實現方案

4.1 冷熱交換

以下是客戶端訪問到冷key時ROR的處理過程。其中藍色模塊與原生redis相同,橙色模塊為ROR新增的冷熱交換功能。

總體上ROR先冷熱交換(swap),再執行命令處理流程。

冷熱交換(swap)過程主要分為以下步驟:

1)語法分析:分析客戶端命令涉及哪些key和subkey。比如,可以分析出MGET k1 k2 k3依賴于k1,k2,k3;而HMGET h1 f1 f2 f3,依賴于 h1.{ f1, f2, f3 }。

2)加鎖:根據語法分析出的結果,對命令所依賴的key加鎖。值得注意的是,這里的鎖并不是pthread_mutex之類的線程鎖,而是ROR項目實現的一種單線程鎖,本質上是一個等待隊列,詳細介紹參考后續并發控制章節。 

3)提交SWAP任務:拿到鎖之后,提交swap任務到IO線程組執行RocksDB讀寫。

4)執行RocksDB讀寫:IO線程組執行RocksDB讀操作。

5)合并數據:將RocksDB讀取的數據合并到redis中。

經過swap過程之后,冷數據已經換入到redis,后續執行命令與原生redis一致。

圖片

4.2 并發控制

redis架構上為單主線程,而RocksDB提供的是阻塞模式的API,直接使用redis主線程調用RocksDB將極大降低redis的性能。為了提高IO吞吐,ROR使用了額外的IO線程組執行RocksDB讀寫。由于增加了IO線程組,對于同一key的讀寫不再是單線程,如果不加控制,那么數據將變得錯亂。

為了控制并發,ROR設計實現了一種單線程可重入鎖來保證同一時間對同一key只有一個客戶端在進行IO交換。這里的鎖并不是pthread_mutex這種系統線程鎖,其本質是一個等待隊列:當key被鎖定后,嘗試獲取該鎖的客戶端必須等待前序客戶端釋放鎖之后才能獲取到key的鎖。

如下圖所示,C1、C2、C3三個客戶端先后執行了MGET命令,其中Key1、Key2、Key3均為冷數據。

C1依賴Key1、Key2,由于這2個key未被鎖定且為冷,因此C1獲取到Key1、Key2的鎖,并觸發了Key1、Key2換入;

C2依賴Key2、Key3,由于Key2被C1鎖定,因此C2等待C1執行結束才能獲取key2鎖;Key3未被鎖定且為冷,因此C2獲取到了Key2的鎖,并觸發了Key3換入;

C3依賴Key1、key3,由于Key1、Key3分別被C1、C2鎖定,因此C3等待C1、C2執行結束后才能獲取Key1、Key3鎖。

因此最終換入Key1、Key2、Key3換入后,客戶端執行順序為C1=>C2=>C3。

圖片

以上是一個簡單的示例,ROR為了實現FLUSHDB/BGSAVE之類涉及整個keyspace的命令并發控制需求,等待隊列包含KEY、DB、SVR三種粒度的鎖,大粒度的鎖需等待細粒度鎖釋放后才能獲得。此外為了確保MULTI/EXEC事務不產生死鎖,允許同一個事務重復鎖定同一key(亦即可重入)。

如下圖所示,C1、C2兩個客戶端先后發起2個事務。

C1依賴Key1(2次),由于C1在同一事務中依賴Key1(2次)且為冷,因此C1獲得Key1鎖并觸發換入;

C2依賴Key2(2次)、DB0、SVR鎖,由于C2在同一事務中依賴Key2(2次)且為冷,因此C2獲得Key2鎖并觸發換入;注意由于C2依賴DB0鎖,DB0鎖范圍大約Key1、Key2,因此只有C1釋放Key1之后才能獲得DB0鎖。

假設Key1先于Key2被換入,Key1換入后,C1事務得到執行并釋放Key1鎖。

當Key2換入后,C2獲得DB0鎖以及SVR鎖(獲得所有鎖),C2事務得到執行。

圖片

4.3 冷數據存儲

與業界多數方案一樣,ROR的冷數據存儲采用了RocksDB引擎,設計上參考了kvrocks、pika等項目,主要有3個要點:

  • key存儲到RocksDB
  • subkey與RocksDB KV對應(i.e. 按subkey存儲)
  • lazy刪除聚合類型key

key存儲到RocksDB

ROR為了做到內存消耗與dbsize無關,內存中并不會存儲冷key,key類型、expire、version等信息會存儲到RocksDB的metaCF中。這樣設計主要是考慮每個key需要額外消耗約50B,如果dbsize為1億則需要額外消耗約5GB內存。對dbsize大、value小的集群來講,額外消耗的內存過多,冷熱分離的性價比則不高。

因此ROR和RoF不同,不會把冷key存儲在內存中,少量與key相關(scan、randomkey、dbsize)命令,則進行適配性改造。

subkey與RocksDB KV對應

RocksDB的數據類型只有KV,與redis支持hash、set、zset等聚合類型key不能一一對應,因此需要構造redis聚合類型key與RocksDB KV類型之間的對應關系。

最直接的方案是將redis的聚合類型key直接序列化單個為RocksDB KV,但這種方案的缺點非常明顯,即HGET hash subkey只依賴單個subkey的命令,也需要將整個聚合類型key換入到內存,這會造成嚴重的讀寫放大。

因此ROR將聚合類型的subkey存儲為RocksDB KV,換入聚合類型數據冷key只需要換入必要的subkey。

lazy刪除聚合類型key

對于聚合類型key而言,每個subkey對應RocksDB KV,ROR刪除聚合key需要刪除掉所有的subkey,直接從RocksDB中迭代刪除復雜度為O(N),會造成延遲尖刺。

參考pika、kvrocks的設計,聚合類型key都有版本號,ROR刪除聚合key時,只刪掉metaCF的元數據,而其他subkey則在RocksDB compaction中通過compaction filter逐漸過濾刪除。

hash/set/zset編碼

以下是hash/set類型的編碼格式:

每個hash/set在metaCF有1個RocksDB KV,記錄了類型、超時時間、版本以及subkey數量。

每個hash/set在defaultCF有N個RocksDB KV,每個subkey對應一個。由于每個subkey都記錄了對應的version,因此刪除聚合key只需要把metaCF的KV刪掉即完成lazy刪除。

圖片

zset類型的編碼格式類似,只多了scoreCF記錄zset的score排序。

圖片

list編碼

由于與hash/set/zset的操作差別較大,list數據模型設計上也有所差別。設計上,ROR內存中的list仍復用redis數據結構,且list可能只有部分subkey在內存中。

模型上list的設計如下:

  • list為任意段rockslist(冷)和memlist(熱)的組合
  • list元素要么在memlist、要么在rockslist,memlist沒有交集
  • 分段信息存儲在listObjectMeta.segments中,segments的每個元素表示一段,記錄了每段的類型以及長度。

圖片

rockslist也按subkey粒度存儲在RocksDB中。

圖片

4.4 cuckoo filter減少IO

前面提到ROR為了做到內存用量與dbsize無關,key元信息不存儲在內存中,因此如果客戶端訪問的key不是熱數據,則必須查詢RocksDB才能確認key是否存在:對于key存在的情況,讀RocksDB并換入冷數據是必要的;但如果key不存在,則讀RocksDB是非必要的。特別是當業務keyspace miss率高的情況(比如重復讀不存在的key),存在大量的非必要IO情況,降低了整體性能。

對于過濾不存在key問題,用bloom filter能以8~10 bit per key的內存取得很好的過濾效果,但由于bloom filter不支持刪除,而ROR的keyspace始終處于動態變化中,因此bloom filter功能上無法滿足需求。

經過調研之后,我們發現cuckoo filter可以很好地滿足我們的需求,支持刪除并且內存消耗量僅需8 bit per key即可滿足ROR過濾準確度需求。

由于無法預測準確到key數量,ROR實現cuckoo filter時采用了多個容量指數增長的cuckoo filter組成的cascading cuckoo filter。

圖片

經過測試我們發現,對于keyspace miss場景,cuckoo filter可以將ROR的QPS從5W提升到6W左右,吞吐提升約20%;對于keyspace hit場景則無明顯影響。

4.5 兼容redis復制

ROR的復制協議完全兼容redis原生復制,全量復制采用RDB格式,增量復制使用RESP協議。由于完全兼容redis原生復制協議,ROR可以直接對接xpipe,具備DR能力。

流式全量復制

ROR與Redis全量復制主要流程相同:master fork出child進程,由child進程打RDB。ROR由于有冷熱兩類數據,因此生成RDB的與原生Redis有區別:

  • 熱數據生成RDB方案不變
  • 冷數據先獲取RocksDB CHECKPOINT,然后SCAN冷數據轉換為RDB格式

    圖片


冷數據(RocksDB部分)生成RDB的一種方案是將冷key臨時加載內存,復用redis的序列化方法構造RDB,但這種方案加載全部冷key會消耗大量CPU,當遇到redis宿主機宕機重啟,大量redis全量同步爭用CPU將導致全量同步時間過長。

出于性能考慮,ROR構造RDB并不加載冷key,而是采用了流式構造RDB的方案:使用一個IO線程迭代RocksDB全量數據,并將迭代的數據流式append到RDB中。需要注意的是,流式構造RDB依賴于ROR在存儲設計上將同一個聚合類型key的subkey存儲在RocksDB相鄰位置。

實現層面,流式構造RDB方案避免了把key加載到內存并跳過redis層重新編碼,直接將RockDB數據流式填充到rdb,全量復制速度315MB/s,可以達到redis復制性能(390MB/s)的80%左右。

并發增量復制

redis增量復制過程中,master通過單個復制客戶端推送復制流到slave。由于復制客戶端只有1個(冷熱交換最大并發為1)如果ROR slave直接用復制客戶端交換數據,會出現slave復制無法跟上master寫入。

為了提高復制交換性能,ROR將從復制客戶端將收到的命令分發到多個worker客戶端,并發執行交換。

如果worker客戶端在交換結束后直接調用命令,那么slave上命令執行的順序可能與master不同,造成主從數據不一致。

ROR采用的方案下,worker客戶端交換結束后并不立即執行命令,而是等到前序命令全部執行完之后在執行。由于slave執行增量復制命令與master向下傳播的復制流的命令順序一致,可以確保主從數據一致。

圖片

如上圖所示,①、②、④在并發執行IO操作,雖然②、④可能在①之前完成數據交換,但一定會等到①完成IO后再執行命令。

ROR增量復制并發改造后,slave處理復制命令速度從幾千QPS提升到大于master的最大寫入速度(5~10W QPS左右,與冷熱數據占比相關)。

五、生產實踐

從經驗來看,多數redis集群QPS較低但內存用量較大,redis宿主機通常因為達到內存上限觸發擴容,但CPU資源則比較空閑,比如攜程內redis宿主機平均CPU使用率約15%,但平均內存使用率達到50%。

ROR采用磁盤增加了緩存容量,能容納更多的數據量,但RocksDB引擎的compaction和壓縮會消耗更多的CPU資源,因此ROR可以認為是用空閑的CPU換內存的成本解決方案。

成本方面,經驗數據顯示1個ROR實例可容納3個redis實例的數據,因此redis遷ROR能節省2/3的成本。

目前在ROR在生產部署了幾萬個實例。由于海外公有云內存單價高,已基本全部部署為ROR,每年可以節省成本上千萬元。

性能方面,從吞吐量考慮,攜程內部redis集群高QPS占比較低,遠低于ROR的QPS上限(參考上文性能數據)。

從延遲考慮,ROR設計上合理利用緩存,按subkey粒度存儲,且硬件上nvme SSD延遲只有幾十微秒,因此與Redis相比延遲并沒有特別明顯的上升。

以下為一個典型redis集群遷移ROR后延遲對比,其中80%為冷數據、20%為熱數據,遷移前后客戶端訪問延遲從200us變為220us左右。

圖片

六、項目開源與未來計劃

6.1 項目開源

前ROR(Redis-On-Rocks)已開源,采用與Redis一致的BSD協議。

6.2 未來計劃

1)提升單實例QPS

部分業務場景(比如大數據相關業務)不但數據量大,而且QPS也比較高,這些集群可能出現ROR主線程100%情況。針對這些場景,我們考慮從軟硬件2個層面優化,軟件層面考慮減少冷熱交換損耗、自動化pipeline減少網絡CPU消耗;硬件層面使用更高主頻的CPU提升上限。

2)完善數據結構支持

部分使用頻次較少的數據結構待優化,比如:bitmap目前按照string處理,讀寫放大比較大,待優化性能;stream目前尚未支持,使用內存存儲,待支持。

3)減少全量同步

國內與海外的帶寬比較小,如果出現全量同步則海外業務受影響時間會比較久。隨著隨著海外部署量上升,這個問題的影響性逐步增大,后續ROR考慮提供可用性與一致性的選項,允許少量數據不一致的情況下增量同步。

責任編輯:張燕妮 來源: 攜程技術
相關推薦

2021-08-20 11:00:04

Redis攜程數據庫

2022-07-15 12:58:02

鴻蒙攜程華為

2022-05-13 09:27:55

Widget機票業務App

2022-07-15 09:20:17

性能優化方案

2022-08-12 08:34:32

攜程數據庫上云

2023-02-08 16:34:05

數據庫工具

2022-07-08 09:38:27

攜程酒店Flutter技術跨平臺整合

2023-07-07 12:19:43

攜程技術

2022-05-27 09:52:36

攜程TS運營AI

2023-08-18 10:49:14

開發攜程

2023-12-15 10:05:58

攜程網絡

2023-07-07 12:26:39

攜程開發

2022-06-03 09:21:47

Svelte前端攜程

2022-08-20 07:46:03

Dynamo攜程數據庫

2023-04-14 10:29:24

小程序實踐

2022-12-14 10:09:44

研發效能

2024-09-10 16:09:58

2022-06-17 10:44:49

實體鏈接系統旅游AI知識圖譜攜程

2020-12-04 14:32:33

AndroidJetpackKotlin

2023-05-12 10:14:38

APP開發
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 韩日在线| 国产午夜久久久 | 国产一区久久久 | 国产精品美女久久久久aⅴ国产馆 | 国产精品美女久久久久久久久久久 | 亚洲欧洲在线看 | 久久免费观看视频 | 亚洲精品福利在线 | 日韩免费一区二区 | 欧美精品久久一区 | 国产操操操 | 精品美女在线观看视频在线观看 | 久久国产成人午夜av影院武则天 | 国产精品一区三区 | 欧美精品1区2区3区 精品国产欧美一区二区 | 最新国产视频 | 久久国产精品一区 | www.三级 | 亚洲va在线va天堂va狼色在线 | 久久久国 | 免费观看av | 97精品一区二区 | 日本中出视频 | 在线观看中文字幕 | 亚洲国产精品久久 | 亚洲视频三区 | www.色.com| 在线观看国产 | 99国产精品久久久久久久 | 99久久婷婷国产综合精品电影 | 日本天堂视频在线观看 | 免费久久网 | 日韩精品成人av | 久久综合久 | 中文字幕韩在线第一页 | 成年免费在线观看 | 性视频一区| 亚洲一二三在线 | 国产98色在线 | 日韩 | 国产成人区 | 日韩中文字幕一区 |