成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

HTTP/2 頭部壓縮技術介紹

網絡 網絡管理
我們知道,HTTP/2 協議由兩個 RFC 組成:一個是 RFC 7540,描述了 HTTP/2 協議本身;一個是 RFC 7541,描述了 HTTP/2 協議中使用的頭部壓縮技術。本文將通過實際案例帶領大家詳細地認識 HTTP/2 頭部壓縮這門技術。

我們知道,HTTP/2 協議由兩個 RFC 組成:一個是 RFC 7540,描述了 HTTP/2 協議本身;一個是 RFC 7541,描述了 HTTP/2 協議中使用的頭部壓縮技術。本文將通過實際案例帶領大家詳細地認識 HTTP/2 頭部壓縮這門技術。

為什么要壓縮

在 HTTP/1 中,HTTP 請求和響應都是由「狀態行、請求 / 響應頭部、消息主體」三部分組成。一般而言,消息主體都會經過 gzip 壓縮,或者本身傳輸的就是壓縮過后的二進制文件(例如圖片、音頻),但狀態行和頭部卻沒有經過任何壓縮,直接以純文本傳輸。

隨著 Web 功能越來越復雜,每個頁面產生的請求數也越來越多,根據 HTTP Archive 的統計,當前平均每個頁面都會產生上百個請求。越來越多的請求導致消耗在頭部的流量越來越多,尤其是每次都要傳輸 UserAgent、Cookie 這類不會頻繁變動的內容,完全是一種浪費。

以下是我隨手打開的一個頁面的抓包結果。可以看到,傳輸頭部的網絡開銷超過 100kb,比 HTML 還多:

 [[154303]]

下面是其中一個請求的明細。可以看到,為了獲得 58 字節的數據,在頭部傳輸上花費了好幾倍的流量:

 [[154304]]

HTTP/1 時代,為了減少頭部消耗的流量,有很多優化方案可以嘗試,例如合并請求、啟用 Cookie-Free 域名等等,但是這些方案或多或少會引入一些新的問題,這里不展開討論。

壓縮后的效果

接下來我將使用訪問本博客的抓包記錄來說明 HTTP/2 頭部壓縮帶來的變化。

首先直接上圖。下圖選中的 Stream 是***訪問本站,瀏覽器發出的請求頭:

 [[154305]]

從圖片中可以看到這個 HEADERS 流的長度是 206 個字節,而解碼后的頭部長度有 451 個字節。由此可見,壓縮后的頭部大小減少了一半多。

然而這就是全部嗎?再上一張圖。下圖選中的 Stream 是點擊本站鏈接后,瀏覽器發出的請求頭:

 [[154306]]

可以看到這一次,HEADERS 流的長度只有 49 個字節,但是解碼后的頭部長度卻有 470 個字節。這一次,壓縮后的頭部大小幾乎只有原始大小的 1/10。

為什么前后兩次差距這么大呢?我們把兩次的頭部信息展開,查看同一個字段兩次傳輸所占用的字節數:

 [[154307]]

 [[154308]]

對比后可以發現,第二次的請求頭部之所以非常小,是因為大部分鍵值對只占用了一個字節。尤其是 UserAgent、Cookie 這樣的頭部,***請求中需要占用很多字節,后續請求中都只需要一個字節。

#p#

技術原理

下面這張截圖,取自 Google 的性能專家 Ilya Grigorik 在 Velocity 2015 • SC 會議中分享的「HTTP/2 is here, let's optimize!」,非常直觀地描述了 HTTP/2 中頭部壓縮的原理:

 [[154309]]

我再用通俗的語言解釋下,頭部壓縮需要在支持 HTTP/2 的瀏覽器和服務端之間:

維護一份相同的靜態字典(Static Table),包含常見的頭部名稱,以及特別常見的頭部名稱與值的組合;

維護一份相同的動態字典(Dynamic Table),可以動態的添加內容;

支持基于靜態哈夫曼碼表的哈夫曼編碼(Huffman Coding);

靜態字典的作用有兩個:1)對于完全匹配的頭部鍵值對,例如 :method :GET,可以直接使用一個字符表示;2)對于頭部名稱可以匹配的鍵值對,例如 cookie :xxxxxxx,可以將名稱使用一個字符表示。HTTP/2 中的靜態字典如下(以下只截取了部分):

HTTP/2 頭部壓縮技術介紹

同時,瀏覽器可以告知服務端,將 cookie :xxxxxxx 添加到動態字典中,這樣后續整個鍵值對就可以使用一個字符表示了。類似的,服務端也可以更新對方的動態字典。需要注意的是,動態字典上下文有關,需要為每個 HTTP/2 連接維護不同的字典。

使用字典可以極大地提升壓縮效果,其中靜態字典在***請求中就可以使用。對于靜態、動態字典中不存在的內容,還可以使用哈夫曼編碼來減小體積。HTTP/2 使用了一份靜態哈夫曼碼表(詳見),也需要內置在客戶端和服務端之中。

這里順便說一下,HTTP/1 的狀態行信息(Method、Path、Status 等),在 HTTP/2 中被拆成鍵值對放入頭部(冒號開頭的那些),同樣可以享受到字典和哈夫曼壓縮。另外,HTTP/2 中所有頭部名稱必須小寫。

實現細節

了解了 HTTP/2 頭部壓縮的基本原理,***我們來看一下具體的實現細節。HTTP/2 的頭部鍵值對有以下這些情況:

1)整個頭部鍵值對都在字典中

  1. 0 1 2 3 4 5 6 7 
  2.  
  3. +---+---+---+---+---+---+---+---+ 
  4.  
  5. | 1 | Index (7+) | 
  6.  
  7. +---+---------------------------+ 

這是最簡單的情況,使用一個字節就可以表示這個頭部了,最左一位固定為 1,之后七位存放鍵值對在靜態或動態字典中的索引。例如下圖中,頭部索引值為 2(0000010),在靜態字典中查詢可得 :method :GET。

 [[154310]]

#p#

2)頭部名稱在字典中,更新動態字典

  1. 0 1 2 3 4 5 6 7 
  2.  
  3. +---+---+---+---+---+---+---+---+ 
  4.  
  5. | 0 | 1 | Index (6+) | 
  6.  
  7. +---+---+-----------------------+ 
  8.  
  9. | H | Value Length (7+) | 
  10.  
  11. +---+---------------------------+ 
  12.  
  13. | Value String (Length octets) | 
  14.  
  15. +-------------------------------+ 

對于這種情況,首先需要使用一個字節表示頭部名稱:左兩位固定為 01,之后六位存放頭部名稱在靜態或動態字典中的索引。接下來的一個字節***位 H 表示頭部值是否使用了哈夫曼編碼,剩余七位表示頭部值的長度 L,后續 L 個字節就是頭部值的具體內容了。例如下圖中索引值為 32(100000),在靜態字典中查詢可得 cookie;頭部值使用了哈夫曼編碼(1),長度是 28(0011100);接下來的 28 個字節是 cookie 的值,將其進行哈夫曼解碼就能得到具體內容。

 [[154311]]

客戶端或服務端看到這種格式的頭部鍵值對,會將其添加到自己的動態字典中。后續傳輸這樣的內容,就符合第 1 種情況了。

3)頭部名稱不在字典中,更新動態字典

  1. 0 1 2 3 4 5 6 7 
  2.  
  3. +---+---+---+---+---+---+---+---+ 
  4.  
  5. | 0 | 1 | 0 | 
  6.  
  7. +---+---+-----------------------+ 
  8.  
  9. | H | Name Length (7+) | 
  10.  
  11. +---+---------------------------+ 
  12.  
  13. | Name String (Length octets) | 
  14.  
  15. +---+---------------------------+ 
  16.  
  17. | H | Value Length (7+) | 
  18.  
  19. +---+---------------------------+ 
  20.  
  21. | Value String (Length octets) | 
  22.  
  23. +-------------------------------+ 

這種情況與第 2 種情況類似,只是由于頭部名稱不在字典中,所以***個字節固定為 01000000;接著申明名稱是否使用哈夫曼編碼及長度,并放上名稱的具體內容;再申明值是否使用哈夫曼編碼及長度,***放上值的具體內容。例如下圖中名稱的長度是 5(0000101),值的長度是 6(0000110)。對其具體內容進行哈夫曼解碼后,可得 pragma: no-cache。

 [[154312]]

客戶端或服務端看到這種格式的頭部鍵值對,會將其添加到自己的動態字典中。后續傳輸這樣的內容,就符合第 1 種情況了。

4)頭部名稱在字典中,不允許更新動態字典

  1. 0 1 2 3 4 5 6 7 
  2.  
  3. +---+---+---+---+---+---+---+---+ 
  4.  
  5. | 0 | 0 | 0 | 1 | Index (4+) | 
  6.  
  7. +---+---+-----------------------+ 
  8.  
  9. | H | Value Length (7+) | 
  10.  
  11. +---+---------------------------+ 
  12.  
  13. | Value String (Length octets) | 
  14.  
  15. +-------------------------------+ 

這種情況與第 2 種情況非常類似,唯一不同之處是:***個字節左四位固定為 0001,只剩下四位來存放索引了,如下圖:

 [[154313]]

這里需要介紹另外一個知識點:對整數的解碼。上圖中***個字節為 00011111,并不代表頭部名稱的索引為 15(1111)。***個字節去掉固定的 0001,只剩四位可用,將位數用 N 表示,它只能用來表示小于「2 ^ N - 1 = 15」的整數 I。對于 I,需要按照以下規則求值(RFC 7541 中的偽代碼,via):

  1. PYTHONif I < 2 ^ N - 1, return I # I 小于 2 ^ N - 1 時,直接返回 
  2.  
  3. else 
  4.  
  5. M = 0 
  6.  
  7. repeat 
  8.  
  9. B = next octet # 讓 B 等于下一個八位 
  10.  
  11. I = I + (B & 127) * 2 ^ M # I = I + (B 低七位 * 2 ^ M) 
  12.  
  13. M = M + 7 
  14.  
  15. while B & 128 == 128 # B ***位 = 1 時繼續,否則返回 I 
  16.  
  17. return I 

對于上圖中的數據,按照這個規則算出索引值為 32(00011111 00010001,15 + 17),代表 cookie。需要注意的是,協議中所有寫成(N+)的數字,例如 Index (4+)、Name Length (7+),都需要按照這個規則來編碼和解碼。

這種格式的頭部鍵值對,不允許被添加到動態字典中(但可以使用哈夫曼編碼)。對于一些非常敏感的頭部,比如用來認證的 Cookie,這么做可以提高安全性。

#p#

5)頭部名稱不在字典中,不允許更新動態字典

  1. 0 1 2 3 4 5 6 7 
  2.  
  3. +---+---+---+---+---+---+---+---+ 
  4.  
  5. | 0 | 0 | 0 | 1 | 0 | 
  6.  
  7. +---+---+-----------------------+ 
  8.  
  9. | H | Name Length (7+) | 
  10.  
  11. +---+---------------------------+ 
  12.  
  13. | Name String (Length octets) | 
  14.  
  15. +---+---------------------------+ 
  16.  
  17. | H | Value Length (7+) | 
  18.  
  19. +---+---------------------------+ 
  20.  
  21. | Value String (Length octets) | 
  22.  
  23. +-------------------------------+ 

這種情況與第 3 種情況非常類似,唯一不同之處是:***個字節固定為 00010000。這種情況比較少見,沒有截圖,各位可以腦補。同樣,這種格式的頭部鍵值對,也不允許被添加到動態字典中,只能使用哈夫曼編碼來減少體積。

實際上,協議中還規定了與 4、5 非常類似的另外兩種格式:將 4、5 格式中的***個字節第四位由 1 改為 0 即可。它表示「本次不更新動態詞典」,而 4、5 表示「絕對不允許更新動態詞典」。區別不是很大,這里略過。

明白了頭部壓縮的技術細節,理論上可以很輕松寫出 HTTP/2 頭部解碼工具了。我比較懶,直接找來 node-http2 中的 compressor.js 驗證一下:

  1. JSvar Decompressor = require('./compressor').Decompressor; 
  2.  
  3. var testLog = require('bunyan').createLogger({name: 'test'}); 
  4.  
  5. var decompressor = new Decompressor(testLog, 'REQUEST'); 
  6.  
  7. var buffer = new Buffer('820481634188353daded6ae43d3f877abdd07f66a281b0dae053fad0321aa49d13fda992a49685340c8a6adca7e28102e10fda9677b8d05707f6a62293a9d810020004015309ac2ca7f2c3415c1f53b0497ca589d34d1f43aeba0c41a4c7a98f33a69a3fdf9a68fa1d75d0620d263d4c79a68fbed00177febe58f9fbed00177b518b2d4b70ddf45abefb4005db901f1184ef034eff609cb60725034f48e1561c8469669f081678ae3eb3afba465f7cb234db9f4085aec1cd48ff86a8eb10649cbf''hex'); 
  8.  
  9. console.log(decompressor.decompress(buffer)); 
  10.  
  11. decompressor._table.forEach(function(row, index) { 
  12.  
  13. console.log(index + 1, row[0], row[1]); 
  14.  
  15. }); 

頭部原始數據來自于本文第三張截圖,運行結果如下(靜態字典只截取了一部分):

  1. BASH{ ':method''GET'
  2.  
  3. ':path''/'
  4.  
  5. ':authority''imququ.com'
  6.  
  7. ':scheme''https'
  8.  
  9. 'user-agent''Mozilla/5.0 (Macintosh; Intel Mac OS X 10.11; rv:41.0) Gecko/20100101 Firefox/41.0'
  10.  
  11. accept: 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8'
  12.  
  13. 'accept-language''en-US,en;q=0.5'
  14.  
  15. 'accept-encoding''gzip, deflate'
  16.  
  17. cookie: 'v=47; u=6f048d6e-adc4-4910-8e69-797c399ed456'
  18.  
  19. pragma: 'no-cache' } 
  20.  
  21. ':authority' '' 
  22.  
  23. ':method' 'GET' 
  24.  
  25. ':method' 'POST' 
  26.  
  27. ':path' '/' 
  28.  
  29. ':path' '/index.html' 
  30.  
  31. ':scheme' 'http' 
  32.  
  33. ':scheme' 'https' 
  34.  
  35. ':status' '200' 
  36.  
  37. ... ... 
  38.  
  39. 32 'cookie' '' 
  40.  
  41. ... ... 
  42.  
  43. 60 'via' '' 
  44.  
  45. 61 'www-authenticate' '' 
  46.  
  47. 62 'pragma' 'no-cache' 
  48.  
  49. 63 'cookie' 'u=6f048d6e-adc4-4910-8e69-797c399ed456' 
  50.  
  51. 64 'accept-language' 'en-US,en;q=0.5' 
  52.  
  53. 65 'accept' 'text/html,application/xhtml+xml,application/xml;q=0.9,*/*;q=0.8' 
  54.  
  55. 66 'user-agent' 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10.11; rv:41.0) Gecko/20100101 Firefox/41.0' 
  56.  
  57. 67 ':authority' 'imququ.com' 

可以看到,這段從 Wireshark 拷出來的頭部數據可以正常解碼,動態字典也得到了更新(62 - 67)。

總結

在進行 HTTP/2 網站性能優化時很重要一點是「使用盡可能少的連接數」,本文提到的頭部壓縮是其中一個很重要的原因:同一個連接上產生的請求和響應越多,動態字典積累得越全,頭部壓縮效果也就越好。所以,針對 HTTP/2 網站,***實踐是不要合并資源,不要散列域名。

默認情況下,瀏覽器會針對這些情況使用同一個連接:

同一域名下的資源;

不同域名下的資源,但是滿足兩個條件:1)解析到同一個 IP;2)使用同一個證書;

上面***點容易理解,第二點則很容易被忽略。實際上 Google 已經這么做了,Google 一系列網站都共用了同一個證書,可以這樣驗證:

  1. BASH$ openssl s_client -connect google.com:443 |openssl x509 -noout -text | grep DNS 
  2.  
  3. depth=2 C = US, O = GeoTrust Inc., CN = GeoTrust Global CA 
  4.  
  5. verify error:num=20:unable to get local issuer certificate 
  6.  
  7. verify return:0 
  8.  
  9. DNS:*.google.com, DNS:*.android.com, DNS:*.appengine.google.com, DNS:*.cloud.google.com, DNS:*.google-analytics.com, DNS:*.google.ca, DNS:*.google.cl, DNS:*.google.co.in, DNS:*.google.co.jp, DNS:*.google.co.uk, DNS:*.google.com.ar, DNS:*.google.com.au, DNS:*.google.com.br, DNS:*.google.com.co, DNS:*.google.com.mx, DNS:*.google.com.tr, DNS:*.google.com.vn, DNS:*.google.de, DNS:*.google.es, DNS:*.google.fr, DNS:*.google.hu, DNS:*.google.it, DNS:*.google.nl, DNS:*.google.pl, DNS:*.google.pt, DNS:*.googleadapis.com, DNS:*.googleapis.cn, DNS:*.googlecommerce.com, DNS:*.googlevideo.com, DNS:*.gstatic.cn, DNS:*.gstatic.com, DNS:*.gvt1.com, DNS:*.gvt2.com, DNS:*.metric.gstatic.com, DNS:*.urchin.com, DNS:*.url.google.com, DNS:*.youtube-nocookie.com, DNS:*.youtube.com, DNS:*.youtubeeducation.com, DNS:*.ytimg.com, DNS:android.com, DNS:g.co, DNS:goo.gl, DNS:google-analytics.com, DNS:google.com, DNS:googlecommerce.com, DNS:urchin.com, DNS:youtu.be, DNS:youtube.com, DNS:youtubeeducation.com 

使用多域名加上相同的 IP 和證書部署 Web 服務有特殊的意義:讓支持 HTTP/2 的終端只建立一個連接,用上 HTTP/2 協議帶來的各種好處;而只支持 HTTP/1.1 的終端則會建立多個連接,達到同時更多并發請求的目的。這在 HTTP/2 完全普及前也是一個不錯的選擇。

責任編輯:何妍 來源: Jerry Qu的小站
相關推薦

2021-05-11 08:31:48

HTTP21.1

2010-06-24 10:42:42

Bzip2壓縮

2014-11-13 10:57:03

http協議

2012-02-24 09:53:24

JavaPlay Framew

2009-07-07 15:24:49

Http Servle

2020-03-08 21:22:03

HTTP112

2009-07-07 17:32:31

HTTP Servle

2018-01-12 17:03:29

HTTPgzip壓縮

2015-12-15 15:27:37

NginxHTTP網絡協議

2009-12-29 15:44:11

ADO.NET檢索技術

2019-09-23 08:35:52

2023-09-06 12:01:50

HTTP協議信息

2010-03-04 13:54:39

Linux壓縮命令

2024-11-05 08:16:04

HTTP/3HTTP 2.0QUIC

2019-12-13 09:14:35

HTTP2協議

2015-09-15 13:48:01

網絡協議HTTP Client

2009-07-02 10:27:20

JSP技術JSP入門

2009-07-02 12:56:01

JSP技術

2023-12-10 16:48:00

Wasm瀏覽器

2009-06-29 14:30:27

JSF技術
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 国产一区二区在线免费观看 | 久久国产婷婷国产香蕉 | 妞干网视频| 久久久91精品国产一区二区三区 | 日本成年免费网站 | 久久精品中文 | 偷拍亚洲色图 | 国产在线一区二区三区 | 欧美啊v在线观看 | 亚洲免费婷婷 | 97国产一区二区精品久久呦 | 成年网站在线观看 | 九九激情视频 | 国产自产21区 | 亚洲二区视频 | 九九久久国产精品 | 亚洲午夜精品视频 | www97影院| 日韩二三区| 国产精品亚洲综合 | 国产黄色小视频在线观看 | 日韩在线中文 | 国产成人精品综合 | 91在线一区 | 亚洲综合大片69999 | 男人的天堂中文字幕 | 成av在线 | 国产女人与拘做受免费视频 | 这里有精品 | www4虎| 日韩精品一区二区三区老鸭窝 | 免费天天干 | 麻豆久久久9性大片 | 成人av免费在线观看 | 99国内精品 | 午夜一区二区三区视频 | 黄色三级在线播放 | 欧美一级片黄色 | 精品欧美色视频网站在线观看 | 成人做爰www免费看视频网站 | 中文字幕一区二区三区乱码在线 |