成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

memcache內核,一文搞定!面試再也不怕了?。。。ㄖ档檬詹兀?/h1>

開發 開發工具 架構
memcache是互聯網分層架構中,使用最多的的KV緩存。面試的過程中,memcache相關的問題幾乎是必問的,關于memcache的面試提問,你能回答到哪一個層次呢?

memcache是互聯網分層架構中,使用最多的的KV緩存。面試的過程中,memcache相關的問題幾乎是必問的,關于memcache的面試提問,你能回答到哪一個層次呢?

畫外音:很可能關乎,你拿到offer的薪酬檔位。

[[268097]]

***類問題:知道不知道

這一類問題,考察用沒用過,知不知道,相對比較好回答。

關于memcache一些基礎特性,使用過的小伙伴基本都能回答出來:

  • mc的核心職能是KV內存管理,value存儲***為1M,它不支持復雜數據結構(哈希、列表、集合、有序集合等);
  • mc不支持持久化;
  • mc支持key過期;
  • mc持續運行很少會出現內存碎片,速度不會隨著服務運行時間降低;
  • mc使用非阻塞IO復用網絡模型,使用監聽線程/工作線程的多線程模型;

面對這類封閉性的問題,一定要斬釘截鐵,毫無猶豫的給出回答。

第二類問題:為什么(why),什么(what)

這一類問題,考察對于一個工具,只停留在使用層面,還是有原理性的思考。

(1) memcache為什么不支持復雜數據結構?為什么不支持持久化?

業務決定技術方案,mc的誕生,以“以服務的方式,而不是庫的方式管理KV內存”為設計目標,它顛覆的是,KV內存管理組件庫,復雜數據結構與持久化并不是它的初衷。

當然,用“顛覆”這個詞未必不合適,庫和服務各有使用場景,只是在分布式的環境下,服務的使用范圍更廣。設計目標,誕生背景很重要,這一定程度上決定了實現方案,就如redis的出現,是為了有一個更好用,更多功能的緩存服務。

畫外音:我很喜歡問這個問題,大部分候選人面對這個沒有標準答案的問題,狀態可能是蒙圈。

(2) memcache是用什么技術實現key過期的?

懶淘汰(lazy expiration)。

(3) memcache為什么能保證運行性能,且很少會出現內存碎片?

提前分配內存。

(4) memcache為什么要使用非阻塞IO復用網絡模型,使用監聽線程/工作線程的多線程模型,有什么優缺點?

目的是提高吞吐量。

多線程能夠充分的利用多核,但會帶來一些鎖沖突。

面對這類半開放的問題,有些并沒有標準答案,一定要回答出自己的思考和見解。

第三類問題:怎么做(how) | 文本剛開始

這一類問題,探測候選人理解得有多透,掌握得有多細,對技術有多刨根究底。

畫外音:所謂“好奇心”,真的很重要,只想要“一份工作”的技術人很難有這種好奇心。

(1) memcache是什么實現內存管理,以減小內存碎片,是怎么實現分配內存的?

開講之前,先解釋幾個非常重要的概念:

  • chunk:它是將內存分配給用戶使用的最小單元。
  • item:用戶要存儲的數據,包含key和value,最終都存儲在chunk里。
  • slab:它會管理一個固定chunk size的若干個chunk,而mc的內存管理,由若干個slab組成。

畫外音:為了避免復雜性,本文先不引入page的概念了。

如上圖所示,一系列slab,分別管理128B,256B,512B…的chunk內存單元。

將上圖中管理128B的slab0放大:

能夠發現slab中的一些核心數據結構是:

  • chunk_size:該slab管理的是128B的chunk
  • free_chunk_list:用于快速找到空閑的chunk
  • chunk[]:已經預分配好,用于存放用戶item數據的實際chunk空間

畫外音:其實還有lru_list。

(2) 假如用戶要存儲一個100B的item,是如何找到對應的可用chunk的呢?

會從最接近item大小的slab的chunk[]中,通過free_chunk_list快速找到對應的chunk,如上圖所示,與item大小最接近的chunk是128B。

(3) 為什么不會出現內存碎片呢?

拿到一個128B的chunk,去存儲一個100B的item,余下的28B不會再被其他的item所使用,即:實際上浪費了存儲空間,來減少內存碎片,保證訪問的速度。

畫外音:理論上,內存碎片幾乎不存在。

(4) memcache通過slab,chunk,free_chunk_list來快速分配內存,存儲用戶的item,那它又是如何快速實現key的查找的呢?

沒有什么特別算法:

  • 通過hash表實現快速查找
  • 通過鏈表來解決沖突

用最樸素的方式,實現key的快速查找。

(5) 隨著item的個數不斷增多,hash沖突越來越大,hash表如何保證查詢效率呢?

當item總數達到hash表長度的1.5倍時,hash表會動態擴容,rehash將數據重新分布,以保證查找效率不會不斷降低。

(6) 擴展hash表之后,同一個key在新舊hash表內的位置會發生變化,如何保證數據的一致性,以及如何保證遷移過程服務的可用性呢(肯定不能加一把大鎖,遷移完成數據,再重新服務吧)?

哈希表擴展,數據遷移是一個耗時的操作,會有一個專門的線程來實施,為了避免大鎖,采用的是“分段遷移”的策略。

當item數量達到閾值時,遷移線程會分段遷移,對hash表中的一部分桶進行加鎖,遷移數據,解鎖:

  • 一來,保證不會有長時間的阻塞,影響服務的可用性
  • 二來,保證item不會在新舊hash表里不一致

(7) 新的問題來了,對于已經存在與舊hash表中的item,可以通過上述方式遷移,那么在item遷移的過程中,如果有新的item插入,是應該插入舊hash表還是新hash表呢?

memcache的做法是,判斷舊hash表中,item應該插入的桶,是否已經遷移至新表中:

  • 如果已經遷移,則item直接插入新hash表
  • 如果還沒有被遷移,則直接插入舊hash表,未來等待遷移線程來遷移至新hash表

(8) 為什么要這么做呢,不能直接插入新hash表嗎?

memcache沒有給出官方的解釋,樓主揣測,這種方法能夠保證一個桶內的數據,只在一個hash表中(要么新表,要么舊表),任何場景下都不會出現,舊表新表查詢兩次,以提升查詢速度。

(9) memcache是怎么實現key過期的,懶淘汰(lazy expiration)具體是怎么玩的?

實現“超時”和“過期”,最常見的兩種方法是:

  • 啟動一個超時線程,對所有item進行掃描,如果發現超時,則進行超時回調處理
  • 每個item設定一個超時信號通知,通知觸發超時回調處理

這兩種方法,都需要有額外的資源消耗。

mc的查詢業務非常簡單,只會返回cache hit與cache miss兩種結果,這種場景下,非常適合使用懶淘汰的方式。

懶淘汰的核心是:

  • item不會被主動淘汰,即沒有超時線程,也沒有信號通知來主動檢查
  • item每次會查詢(get)時,檢查一下時間戳,如果已經過期,被動淘汰,并返回cache miss

舉個例子,假如set了一個key,有效期100s:

  • 在第50s的時候,有用戶查詢(get)了這個key,判斷未過期,返回對應的value值
  • 在第200s的時候,又有用戶查詢(get)了這個key,判斷已過期,將item所在的chunk釋放,返回cache miss

這種方式的實現代價很小,消耗資源非常低:

  • 在item里,加入一個過期時間屬性
  • 在get時,加入一個時間判斷

內存總是有限的,chunk數量有限的情況下,能夠存儲的item個數是有限的,假如chunk被用完了,該怎么辦?

仍然是上面的例子,假如128B的chunk都用完了,用戶又set了一個100B的item,要不要擠掉已有的item?要。

這里的啟示是:

  • 即使item的有效期設置為“***”,也可能被淘汰;
  • 如果要做全量數據緩存,一定要仔細評估,cache的內存大小,必須大于,全量數據的總大小,否則很容易采坑;

(10) 擠掉哪一個item?怎么擠?

這里涉及LRU淘汰機制。

如果操作系統的內存管理,最常見的淘汰算法是FIFO和LRU:

  • FIFO(first in first out):***被set的item,***被淘汰
  • LRU(least recently used):最近最少被使用(get/set)的item,***被淘汰

使用LRU算法擠掉item,需要增加兩個屬性:

  • 最近item訪問計數
  • 最近item訪問時間

并增加一個LRU鏈表,就能夠快速實現。

畫外音:所以,管理chunk的每個slab,除了free_chunk_list,還有lru_list。

思路比結論重要。

【本文為51CTO專欄作者“58沈劍”原創稿件,轉載請聯系原作者】

戳這里,看該作者更多好文

責任編輯:趙寧寧 來源: 51CTO專欄
相關推薦

2021-04-22 07:49:51

Vue3Vue2.xVue3.x

2023-02-28 17:27:02

分庫分表中間件

2022-07-11 07:36:36

緩存緩存雪崩緩存擊穿

2024-12-04 06:00:00

C#深拷貝

2021-05-08 07:53:33

面試線程池系統

2022-04-01 07:52:42

JavaScript防抖節流

2020-11-24 07:48:32

React

2021-08-10 18:36:02

Express原理面試

2020-10-20 09:12:57

axios核心原理

2020-04-30 10:24:35

Spring循環依賴Java

2023-11-28 17:49:51

watch?computed?性能

2020-10-28 09:36:46

K8S容器項目

2019-09-02 07:42:50

nginx服務器跨域

2019-04-01 05:02:48

搜索架構檢索

2022-10-31 11:10:49

Javavolatile變量

2020-10-15 12:52:46

SpringbootJava編程語言

2019-09-03 10:40:23

數據結構HTML編程

2020-03-03 17:47:07

UDP TCP面試題

2022-08-27 13:49:36

ES7promiseresolve

2021-08-12 11:05:07

C++語言內存泄露
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 国产精品一区一区三区 | 日韩一区二区在线看 | 亚洲风情在线观看 | 欧美日韩在线免费 | 中文字幕一区二区三区在线观看 | 91国内在线观看 | 超碰97免费观看 | www.久久久.com | 欧美国产日韩在线观看 | 日韩精品国产精品 | 国产精品久久久久久久久久免费看 | 久久久成人一区二区免费影院 | 毛片入口| 欧美日韩在线免费观看 | 一区视频| 欧美一级黑人aaaaaaa做受 | 不卡一区 | 蜜臀av日日欢夜夜爽一区 | 成人国产午夜在线观看 | 91精品国产色综合久久 | 国产一区久久久 | 国产精品成人一区 | 欧美日本韩国一区二区 | 亚洲在线免费 | 国产精品美女久久久久久免费 | 欧美黄色一级毛片 | 中文字幕日韩一区 | 精品一级电影 | 欧美日韩国产在线观看 | 美女久久| 国产精品视频二区三区 | 国产精品日韩一区二区 | 超黄视频网站 | 播放一级黄色片 | 黄色三级在线播放 | 成人免费在线视频 | 久久久91精品国产一区二区三区 | 日韩精品免费看 | 大学生a级毛片免费视频 | 日日夜夜精品视频 | 日韩久久久久久久久久久 |