成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

從頭捋了一遍Epoll原理,收獲頗豐!

系統 Linux 開發工具
Epoll 是個很老的知識點,是后端工程師的經典必修課。這種知識具備的特點就是研究的人多,所以研究的趨勢就會越來越深。當然分享的人也多,由于分享者水平參差不齊,也產生的大量錯誤理解。

 Epoll 是個很老的知識點,是后端工程師的經典必修課。這種知識具備的特點就是研究的人多,所以研究的趨勢就會越來越深。當然分享的人也多,由于分享者水平參差不齊,也產生的大量錯誤理解。

[[386789]]

圖片來自 Pexels 

今天我再次分享 epoll,肯定不會列個表格,對比一下差異,那就太無聊了。

我將從線程阻塞的原理,中斷優化,網卡處理數據過程出發,深入的介紹 epoll 背后的原理,最后還會 diss 一些流行的觀點。相信無論你是否已經熟悉 epoll,本文都會對你有價值。

正文開始前,先問大家幾個問題:

①epoll 性能到底有多高。很多文章介紹 epoll 可以輕松處理幾十萬個連接。而傳統 IO 只能處理幾百個連接,是不是說 epoll 的性能就是傳統 IO 的千倍呢?

②很多文章把網絡 IO 劃分為阻塞,非阻塞,同步,異步。并表示:非阻塞的性能比阻塞性能好,異步的性能比同步性能好。

如果說阻塞導致性能低,那傳統 IO 為什么要阻塞呢?epoll 是否需要阻塞呢?Java 的 NIO 和 AIO 底層都是 epoll 實現的,這又怎么理解同步和異步的區別?

③都是 IO 多路復用。既生瑜何生亮,為什么會有 select,poll 和 epoll 呢?為什么 epoll 比 select 性能高?

PS:本文共包含三大部分:初識 epoll、epoll 背后的原理 、Diss 環節。本文的重點是介紹原理,建議讀者的關注點盡量放在:“為什么”。

Linux 下進程和線程的區別其實并不大,尤其是在討論原理和性能問題時,因此本文中“進程”和“線程”兩個詞是混用的。

初識 epoll

epoll 是 Linux 內核的可擴展 I/O 事件通知機制,其最大的特點就是性能優異。

下圖是 libevent(一個知名的異步事件處理軟件庫)對 select,poll,epoll ,kqueue 這幾個 I/O 多路復用技術做的性能測試。

 

很多文章在描述 epoll 性能時都引用了這個基準測試,但少有文章能夠清晰的解釋這個測試結果。

這是一個限制了 100 個活躍連接的基準測試,每個連接發生 1000 次讀寫操作為止。縱軸是請求的響應時間,橫軸是持有的 socket 句柄數量。

隨著句柄數量的增加,epoll 和 kqueue 響應時間幾乎無變化,而 poll 和 select 的響應時間卻增長了非常多。

可以看出來,epoll 性能是很高的,并且隨著監聽的文件描述符的增加,epoll 的優勢更加明顯。

不過,這里限制的 100 個連接很重要。epoll 在應對大量網絡連接時,只有活躍連接很少的情況下才能表現的性能優異。

換句話說,epoll 在處理大量非活躍的連接時性能才會表現的優異。如果15000個 socket 都是活躍的,epoll 和 select 其實差不了太多。

為什么 epoll 的高性能有這樣的局限性?問題好像越來越多了,看來我們需要更深入的研究了。

epoll 背后的原理

阻塞

①為什么阻塞

我們以網卡接收數據舉例,回顧一下之前我分享過的網卡接收數據的過程。

 

為了方便理解,我盡量簡化技術細節,可以把接收數據的過程分為四步:

  • NIC(網卡)接收到數據,通過 DMA 方式寫入內存(Ring Buffer 和 sk_buff)。
  • NIC 發出中斷請求(IRQ),告訴內核有新的數據過來了。
  • Linux 內核響應中斷,系統切換為內核態,處理 Interrupt Handler,從RingBuffer 拿出一個 Packet, 并處理協議棧,填充 Socket 并交給用戶進程。
  • 系統切換為用戶態,用戶進程處理數據內容。

網卡何時接收到數據是依賴發送方和傳輸路徑的,這個延遲通常都很高,是毫秒(ms)級別的。而應用程序處理數據是納秒(ns)級別的。

也就是說整個過程中,內核態等待數據,處理協議棧是個相對很慢的過程。這么長的時間里,用戶態的進程是無事可做的,因此用到了“阻塞(掛起)”。

②阻塞不占用 CPU

阻塞是進程調度的關鍵一環,指的是進程在等待某事件發生之前的等待狀態。

請看下表,在 Linux 中,進程狀態大致有 7 種(在 include/linux/sched.h 中有更多狀態):

 

從說明中其實就可以發現,“可運行狀態”會占用 CPU 資源,另外創建和銷毀進程也需要占用 CPU 資源(內核)。重點是,當進程被"阻塞/掛起"時,是不會占用 CPU 資源的。

換個角度來講。為了支持多任務,Linux 實現了進程調度的功能(CPU 時間片的調度)。

而這個時間片的切換,只會在“可運行狀態”的進程間進行。因此“阻塞/掛起”的進程是不占用 CPU 資源的。

另外講個知識點,為了方便時間片的調度,所有“可運行狀態”狀態的進程,會組成一個隊列,就叫“工作隊列”。

③阻塞的恢復

內核當然可以很容易的修改一個進程的狀態,問題是網絡 IO 中,內核該修改那個進程的狀態。

 

socket 結構體,包含了兩個重要數據:進程 ID 和端口號。進程 ID 存放的就是執行 connect,send,read 函數,被掛起的進程。

在 socket 創建之初,端口號就被確定了下來,操作系統會維護一個端口號到 socket 的數據結構。

當網卡接收到數據時,數據中一定會帶著端口號,內核就可以找到對應的 socket,并從中取得“掛起”進程的 ID。

將進程的狀態修改為“可運行狀態”(加入到工作隊列)。此時內核代碼執行完畢,將控制權交還給用戶態。通過正常的“CPU 時間片的調度”,用戶進程得以處理數據。

④進程模型

上面介紹的整個過程,基本就是 BIO(阻塞 IO)的基本原理了。用戶進程都是獨立的處理自己的業務,這其實是一種符合進程模型的處理方式。

上下文切換的優化

上面介紹的過程中,有兩個地方會造成頻繁的上下文切換,效率可能會很低:

  • 如果頻繁的收到數據包,NIC 可能頻繁發出中斷請求(IRQ)。CPU 也許在用戶態,也許在內核態,也許還在處理上一條數據的協議棧。但無論如何,CPU 都要盡快的響應中斷。這么做實際上非常低效,造成了大量的上下文切換,也可能導致用戶進程長時間無法獲得數據。(即使是多核,每次協議棧都沒有處理完,自然無法交給用戶進程)
  • 每個 Packet 對應一個 socket,每個 socket 對應一個用戶態的進程。這些用戶態進程轉為“可運行狀態”,必然要引起進程間的上下文切換。

①網卡驅動的 NAPI 機制

在 NIC 上,解決頻繁 IRQ 的技術叫做 New API(NAPI)。

原理其實特別簡單,把 Interrupt Handler 分為兩部分:

  • 函數名為 napi_schedule,專門快速響應 IRQ,只記錄必要信息,并在合適的時機發出軟中斷 softirq。
  • 函數名為 netrxaction,在另一個進程中執行,專門響應 napi_schedule 發出的軟中斷,批量的處理 RingBuffer 中的數據。

 

所以使用了 NAPI 的驅動,接收數據過程可以簡化描述為:

  • NIC 接收到數據,通過 DMA 方式寫入內存(Ring Buffer 和 sk_buff)。
  • NIC 發出中斷請求(IRQ),告訴內核有新的數據過來了。
  • driver 的 napi_schedule 函數響應 IRQ,并在合適的時機發出軟中斷(NET_RX_SOFTIRQ)。
  • driver 的 net_rx_action 函數響應軟中斷,從 Ring Buffer 中批量拉取收到的數據。并處理協議棧,填充 Socket 并交給用戶進程。
  • 系統切換為用戶態,多個用戶進程切換為“可運行狀態”,按 CPU 時間片調度,處理數據內容。

一句話概括就是:等著收到一批數據,再一次批量的處理數據。

②單線程的 IO 多路復用

內核優化“進程間上下文切換”的技術叫的“IO 多路復用”,思路和 NAPI 是很接近的。

每個 socket 不再阻塞讀寫它的進程,而是用一個專門的線程,批量的處理用戶態數據,這樣就減少了線程間的上下文切換。

 

作為 IO 多路復用的一個實現,select 的原理也很簡單。所有的 socket 統一保存執行 select 函數的(監視進程)進程 ID。

任何一個 socket 接收了數據,都會喚醒“監視進程”。內核只要告訴“監視進程”,那些 socket 已經就緒,監視進程就可以批量處理了。

IO 多路復用的進化

①對比 epoll 與 select

select,poll 和 epoll 都是“IO 多路復用”,那為什么還會有性能差距呢?篇幅限制,這里我們只簡單對比 select 和 epoll 的基本原理差異。

對于內核,同時處理的 socket 可能有很多,監視進程也可能有多個。所以監視進程每次“批量處理數據”,都需要告訴內核它“關心的 socket”。

內核在喚醒監視進程時,就可以把“關心的 socket”中,就緒的 socket 傳給監視進程。

換句話說,在執行系統調用 select 或 epoll_create 時,入參是“關心的 socket”,出參是“就緒的 socket”。

而 select 與 epoll 的區別在于:

select (一次O(n)查找):

  • 每次傳給內核一個用戶空間分配的 fd_set 用于表示“關心的 socket”。其結構(相當于 bitset)限制了只能保存 1024 個 socket。
  • 每次 socket 狀態變化,內核利用 fd_set 查詢 O(1),就能知道監視進程是否關心這個 socket。
  • 內核是復用了 fd_set 作為出參,返還給監視進程(所以每次 select 入參需要重置)。

然而監視進程必須遍歷一遍 socket 數組 O(n),才知道哪些 socket 就緒了。

epoll (全是O(1)查找):

  • 每次傳給內核一個實例句柄。這個句柄是在內核分配的紅黑樹 rbr+雙向鏈表 rdllist。只要句柄不變,內核就能復用上次計算的結果。
  • 每次 socket 狀態變化,內核就可以快速從 rbr 查詢O(1),監視進程是否關心這個 socket。同時修改 rdllist,所以 rdllist 實際上是“就緒的 socket”的一個緩存。
  • 內核復制 rdllist 的一部分或者全部(LT 和 ET),到專門的 epoll_event 作為出參。

所以監視進程,可以直接一個個處理數據,無需再遍歷確認。

Select 示例代碼:

 

Epoll 示例代碼:

 

另外,epoll_create 底層實現,到底是不是紅黑樹,其實也不太重要(完全可以換成 hashtable)。

重要的是 efd 是個指針,其數據結構完全可以對外透明的修改成任意其他數據結構。

②API 發布的時間線

另外,我們再來看看網絡 IO 中,各個 api 的發布時間線:

  • 1983,socket 發布在 Unix(4.2 BSD)
  • 1983,select 發布在 Unix(4.2 BSD)
  • 1994,Linux 的 1.0,已經支持 socket 和 select
  • 1997,poll 發布在 Linux 2.1.23
  • 2002,epoll 發布在 Linux 2.5.44

就可以得到兩個有意思的結論:

  • socket 和 select 是同時發布的。這說明了,select 不是用來代替傳統 IO 的。這是兩種不同的用法(或模型),適用于不同的場景。
  • select、poll 和 epoll,這三個“IO 多路復用 API”是相繼發布的。這說明了,它們是 IO 多路復用的 3 個進化版本。

因為 API 設計缺陷,無法在不改變 API 的前提下優化內部邏輯。所以用 poll 替代 select,再用 epoll 替代 poll。

總結

我們花了三個章節,闡述 epoll 背后的原理,現在用三句話總結一下:

  • 基于數據收發的基本原理,系統利用阻塞提高了 CPU 利用率。
  • 為了優化上線文切換,設計了“IO 多路復用”(和 NAPI)。
  • 為了優化“內核與監視進程的交互”,設計了三個版本的 API(select,poll,epoll)。

Diss 環節

講完“epoll 背后的原理”,已經可以回答最初的幾個問題。這已經是一個完整的文章,很多人勸我刪掉下面的 diss 環節。

我的觀點是:學習就是個研究+理解的過程。上面是研究,下面再講一下我的個人“理解”,歡迎指正。

關于 IO 模型的分類

關于阻塞,非阻塞,同步,異步的分類,這么分自然有其道理。但是在操作系統的角度來看“這樣分類,容易產生誤解,并不好”。

 

①阻塞和非阻塞

Linux 下所有的 IO 模型都是阻塞的,這是收發數據的基本原理導致的。阻塞用戶線程是一種高效的方式。

你當然可以寫一個程序,socket 設置成非阻塞模式,在不使用監視器的情況下,依靠死循環完成一次 IO 操作。但是這樣做的效率實在是太低了,完全沒有實際意義。

換句話說,阻塞不是問題,運行才是問題,運行才會消耗 CPU。IO 多路復用不是減少了阻塞,是減少了運行。

上下文切換才是問題,IO 多路復用,通過減少運行的進程,有效的減少了上下文切換。

②同步和異步

Linux 下所有的 IO 模型都是同步的。BIO 是同步的,select 同步的,poll 同步的,epoll 還是同步的。

Java 提供的 AIO,也許可以稱作“異步”的。但是 JVM 是運行在用戶態的,Linux 沒有提供任何的異步支持。

因此 JVM 提供的異步支持,和你自己封裝成“異步”的框架是沒有本質區別的(你完全可以使用 BIO 封裝成異步框架)。

所謂的“同步“和”異步”只是兩種事件分發器(event dispatcher)或者說是兩個設計模式(Reactor 和 Proactor)。

都是運行在用戶態的,兩個設計模式能有多少性能差異呢?

  • Reactor 對應 Java 的 NIO,也就是 Channel,Buffer 和 Selector 構成的核心的 API。
  • Proactor對應 java 的 AIO,也就是 Async 組件和 Future 或 Callback 構成的核心的 API。

③我的分類

我認為 IO 模型只分兩類:

  • 更加符合程序員理解和使用的,進程模型。
  • 更加符合操作系統處理邏輯的,IO 多路復用模型。

對于“IO 多路復用”的事件分發,又分為兩類:Reactor 和 Proactor。

關于 mmap

epoll 到底用沒用到 mmap?答案:沒有!

這是個以訛傳訛的謠言。其實很容易證明的,用 epoll 寫個 demo。strace 一下就清楚了。

作者:馮志明

簡介:2019 年至今負責搜索算法的相關工作,擅長處理復雜的業務系統,對底層技術有濃厚興趣。

編輯:陶家龍

出處:轉載自公眾號Qunar技術沙龍(ID:QunarTL)

 

責任編輯:武曉燕 來源: Qunar技術沙龍
相關推薦

2021-03-04 08:06:13

Java代理機制

2021-10-07 20:12:03

MVCC事務原理

2021-08-12 10:36:18

order byMySQL數據庫

2017-12-26 14:17:24

潤乾報表

2023-01-10 19:47:47

Redis原理多線程

2021-06-15 07:15:15

Oracle底層explain

2022-01-17 20:59:37

開發group by思路

2020-12-18 06:09:07

Java淺拷貝深拷貝

2024-05-21 08:40:21

分庫分表源碼

2025-02-13 09:06:27

2021-12-01 07:26:13

IO模型異步

2015-10-10 11:10:24

重敲代碼拷貝粘貼

2023-09-12 07:31:45

HashMap線程

2024-03-26 07:59:32

IO模型多路復用

2024-03-12 08:20:57

零拷貝存儲開發

2019-09-19 08:04:40

網絡七層模型TCPUDP

2020-02-09 17:30:54

反轉鏈表程序員節點

2022-02-22 09:16:41

AndroidWindows狀態欄

2010-01-02 10:38:51

360商業拓展dell

2022-08-26 10:41:03

指針C語言
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 亚洲精品免费在线 | 成人精品一区 | 欧美视频二区 | 中文字幕在线观看 | 亚洲自拍偷拍欧美 | 国产精品毛片一区二区在线看 | 不卡的av在线 | 国产成人久久精品一区二区三区 | 一区二区三区视频在线观看 | 中文字幕av第一页 | av毛片在线免费观看 | 国产一级片精品 | 日日干天天操 | 三级黄色大片网站 | 成人综合视频在线观看 | 亚洲午夜精品 | 一区二区三区免费 | 青青草视频网 | 涩爱av一区二区三区 | 91精品国产91久久久久久吃药 | 一区二区三区在线播放 | 国产精品久久福利 | 91精品国产91久久久久久密臀 | 欧美黄色免费网站 | 日本一区二区三区四区 | 日韩在线小视频 | www.精品国产 | 天堂久久网 | 久久久国产精品一区 | 超碰国产在线 | 日本成人综合 | 精品综合 | www.99热| 久久国产欧美日韩精品 | 国产美女黄色片 | 国产亚洲精品久久久久动 | 亚洲福利一区 | 欧美精品久久久久久 | 欧美国产日本一区 | 久久久久成人精品 | 精品久久久久久久久久久久 |