成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

如何使用Go建開發高負載WebSocket服務器

開發 前端 服務器
今天我們將討論API或WebSocket服務器。我們的服務器將有大約300萬個在線連接。

嗨,大家好! 我的名字是Sergey Kamardin,我是Mail.Ru的工程師。

介紹

首先介紹我們的故事的上下文,應該介紹幾點我們為什么需要這個服務器。

Mail.Ru有很多有狀態的系統。 用戶電子郵件存儲是其中之一。 跟蹤系統中的狀態變化和系統事件有幾種方法。 這主要是通過定期系統輪詢或關于其狀態變化的系統通知。

[[203417]]

兩種方式都有利弊。 但是當涉及郵件時,用戶收到新郵件的速度越快越好。

郵件輪詢涉及每秒大約50,000個HTTP查詢,其中60%返回304狀態,這意味著郵箱沒有變化。

因此,為了減少服務器上的負載并加快郵件傳遞給用戶,決定通過編寫發布-訂閱服務器,一方面將接收有關狀態更改的通知,另一方面則會收到這種通知的訂閱。

先前

如何使用Go建開發高負載WebSocket服務器

現在

如何使用Go建開發高負載WebSocket服務器

***個方案顯示了以前的樣子。 瀏覽器定期輪詢API,并查詢有關Storage(郵箱服務)的更改。

第二個方案描述了新架構。 瀏覽器與通知API建立WebSocket連接,通知API是Bus服務器的客戶端。收到新的電子郵件后,Storage會向Bus(1)發送一條通知,由Bus發送到訂閱者。 API確定連接以發送接收到的通知,并將其發送到用戶的瀏覽器(3)。

所以今天我們將討論API或WebSocket服務器。 我們的服務器將有大約300萬個在線連接。

實現方式

讓我們看看如何使用Go函數實現服務器的某些部分,而無需任何優化。

在進行net/http ,我們來談談我們如何發送和接收數據。 站在WebSocket協議(例如JSON對象) 之上的數據在下文中將被稱為分組 。

我們開始實現包含通過WebSocket連接發送和接收這些數據包的Channel結構。

channel 結構

 

  1. // Packet represents application level data. 
  2. type Packet struct { 
  3.     ... 
  4.  
  5. // Channel wraps user connection
  6. type Channel struct { 
  7.     conn net.Conn    // WebSocket connection
  8.     send chan Packet // Outgoing packets queue. 
  9.  
  10. func NewChannel(conn net.Conn) *Channel { 
  11.     c := &Channel{ 
  12.         conn: conn, 
  13.         send: make(chan Packet, N), 
  14.     } 
  15.  
  16.     go c.reader() 
  17.     go c.writer() 
  18.  
  19.     return c 

 

注意這里有reader和writer連個goroutines。 每個goroutine都需要自己的內存棧, 根據操作系統和Go版本可能具有2到8 KB的初始大小。

在300萬個在線連接的時候,我們將需要24 GB的內存 (堆棧為4 KB)用于維持所有連接。 這還沒有計算為Channel結構分配的內存,傳出的數據包ch.send和其他內部字段消耗的內存。

  1. I/O goroutines 

我們來看看“reader”的實現:

 

  1. func (c *Channel) reader() { 
  2.     // We make a buffered read to reduce read syscalls. 
  3.     buf := bufio.NewReader(c.conn) 
  4.  
  5.     for { 
  6.         pkt, _ := readPacket(buf) 
  7.         c.handle(pkt) 
  8.     } 

 

這里我們使用bufio.Reader來減少read() syscalls的數量,并讀取與buf緩沖區大小一樣的數量。 在***循環中,我們期待新數據的到來。 請記住: 預計新數據將會來臨。 我們稍后會回來。

我們將離開傳入數據包的解析和處理,因為對我們將要討論的優化不重要。 但是, buf現在值得我們注意:默認情況下,它是4 KB,這意味著我們需要另外12 GB內存。 “writer”有類似的情況:

 

  1. func (c *Channel) writer() { 
  2.     // We make buffered write to reduce write syscalls.  
  3.     buf := bufio.NewWriter(c.conn) 
  4.  
  5.     for pkt := range c.send { 
  6.         _ := writePacket(buf, pkt) 
  7.         buf.Flush() 
  8.     } 

 

我們遍歷c.send ,并將它們寫入緩沖區。細心讀者已經猜到的,我們的300萬個連接還將消耗12 GB的內存。

HTTP

我們已經有一個簡單的Channel實現,現在我們需要一個WebSocket連接才能使用。

注意:如果您不知道WebSocket如何工作。客戶端通過稱為升級的特殊HTTP機制切換到WebSocket協議。 在成功處理升級請求后,服務器和客戶端使用TCP連接來交換二進制WebSocket幀。 這是連接中的框架結構的描述。

 

  1. import ( 
  2.     "net/http" 
  3.     "some/websocket" 
  4.  
  5. http.HandleFunc("/v1/ws", func(w http.ResponseWriter, r *http.Request) { 
  6.     conn, _ := websocket.Upgrade(r, w) 
  7.     ch := NewChannel(conn) 
  8.     //... 
  9. }) 

 

請注意, http.ResponseWriter為bufio.Reader和bufio.Writer (使用4 KB緩沖區)進行內存分配,用于*http.Request初始化和進一步的響應寫入。

無論使用什么WebSocket庫,在成功響應升級請求后, 服務器在responseWriter.Hijack()調用之后,連同TCP連接一起接收 I/O緩沖區。

提示:在某些情況下, go:linkname 可用于 通過調用 net/http.putBufio{Reader,Writer} 將緩沖區返回到 net/http 內 的 sync.Pool 。

因此,我們需要另外24 GB的內存來維持300萬個鏈接。

所以,我們的程序即使什么都沒做,也需要72G內存。

優化

我們來回顧介紹部分中談到的內容,并記住用戶連接的行為。 切換到WebSocket之后,客戶端發送一個包含相關事件的數據包,換句話說就是訂閱事件。 然后(不考慮諸如ping/pong等技術信息),客戶端可能在整個連接壽***不發送任何其他信息。

連接壽命可能是幾秒到幾天。

所以在最多的時候,我們的Channel.reader()和Channel.writer()正在等待接收或發送數據的處理。 每個都有4 KB的I/O緩沖區。

現在很明顯,某些事情可以做得更好,不是嗎?

Netpoll

你還記得bufio.Reader.Read()內部,Channel.reader()實現了在沒有新數據的時候conn.read()會被鎖。如果連接中有數據,Go運行時“喚醒”我們的goroutine并允許它讀取下一個數據包。 之后,goroutine再次鎖定,期待新的數據。 讓我們看看Go運行時如何理解goroutine必須被“喚醒”。 如果我們看看conn.Read()實現 ,我們將在其中看到net.netFD.Read()調用 :

 

  1. // net/fd_unix.go 
  2.  
  3. func (fd *netFD) Read(p []byte) (n int, err error) { 
  4.     //... 
  5.     for { 
  6.         n, err = syscall.Read(fd.sysfd, p) 
  7.         if err != nil { 
  8.             n = 0 
  9.             if err == syscall.EAGAIN { 
  10.                 if err = fd.pd.waitRead(); err == nil { 
  11.                     continue 
  12.                 } 
  13.             } 
  14.         } 
  15.         //... 
  16.         break 
  17.     } 
  18.     //... 

 

Go在非阻塞模式下使用套接字。 EAGAIN表示,套接字中沒有數據,并且在從空套接字讀取時不會被鎖定,操作系統將控制權返還給我們。

我們從連接文件描述符中看到一個read()系統調用。 如果讀取返回EAGAIN錯誤 ,則運行時會使pollDesc.waitRead()調用 :

 

  1. // net/fd_poll_runtime.go 
  2.  
  3. func (pd *pollDesc) waitRead() error { 
  4.    return pd.wait('r'
  5.  
  6. func (pd *pollDesc) wait(mode int) error { 
  7.    res := runtime_pollWait(pd.runtimeCtx, mode) 
  8.    //... 

 

如果我們深入挖掘 ,我們將看到netpoll是使用Linux中的epoll和BSD中的kqueue來實現的。 為什么不使用相同的方法來進行連接? 我們可以分配一個讀緩沖區,只有在真正有必要時才使用goroutine:當套接字中有真實可讀的數據時。

在github.com/golang/go上, 導出netpoll函數有問題 。

擺脫goroutines

假設我們有Go的netpoll實現 。 現在我們可以避免使用內部緩沖區啟動Channel.reader() goroutine,并在連接中訂閱可讀數據的事件:

 

  1. ch := NewChannel(conn) 
  2.  
  3. // Make conn to be observed by netpoll instance. 
  4. poller.Start(conn, netpoll.EventRead, func() { 
  5.     // We spawn goroutine here to prevent poller wait loop 
  6.     // to become locked during receiving packet from ch. 
  7.     go Receive(ch) 
  8. }) 
  9.  
  10. // Receive reads a packet from conn and handles it somehow. 
  11. func (ch *Channel) Receive() { 
  12.     buf := bufio.NewReader(ch.conn) 
  13.     pkt := readPacket(buf) 
  14.     c.handle(pkt) 

 

使用Channel.writer()更容易,因為只有當我們要發送數據包時,我們才能運行goroutine并分配緩沖區:

 

  1. func (ch *Channel) Send(p Packet) { 
  2.     if c.noWriterYet() { 
  3.         go ch.writer() 
  4.     } 
  5.     ch.send <- p 

 

請注意,當操作系統在 write() 系統調用時返回 EAGAIN 時,我們不處理這種情況 。 對于這種情況,我們傾向于Go運行時那樣處理。 如果需要,它可以以相同的方式來處理。

從ch.send (一個或幾個)讀出傳出的數據包后,writer將完成其操作并釋放goroutine棧和發送緩沖區。

***! 通過擺脫兩個連續運行的goroutine中的堆棧和I/O緩沖區,我們節省了48 GB 。

資源控制

大量的連接不僅涉及高內存消耗。 在開發服務器時,我們會經歷重復的競爭條件和死鎖,常常是所謂的自動DDoS,這種情況是當應用程序客戶端肆意嘗試連接到服務器,從而破壞服務器。

例如,如果由于某些原因我們突然無法處理ping/pong消息,但是空閑連接的處理程序會關閉這樣的連接(假設連接斷開,因此沒有提供數據),客戶端會不斷嘗試連接,而不是等待事件。

如果鎖定或超載的服務器剛剛停止接受新連接,并且負載均衡器(例如,nginx)將請求都傳遞給下一個服務器實例,那壓力將是巨大的。

此外,無論服務器負載如何,如果所有客戶端突然想要以任何原因發送數據包(大概是由于錯誤原因),則先前節省的48 GB將再次使用,因為我們將實際恢復到初始狀態goroutine和并對每個連接分配緩沖區。

Goroutine池

我們可以使用goroutine池來限制同時處理的數據包數量。 這是一個go routine池的簡單實現:

 

  1. package gopool 
  2.  
  3. func New(size int) *Pool { 
  4.     return &Pool{ 
  5.         work: make(chan func()), 
  6.         sem:  make(chan struct{}, size), 
  7.     } 
  8.  
  9. func (p *Pool) Schedule(task func()) error { 
  10.     select { 
  11.     case p.work <- task: 
  12.     case p.sem <- struct{}{}: 
  13.         go p.worker(task) 
  14.     } 
  15.  
  16. func (p *Pool) worker(task func()) { 
  17.     defer func() { <-p.sem } 
  18.     for { 
  19.         task() 
  20.         task = <-p.work 
  21.     } 

現在我們的netpoll代碼如下:

 

  1. pool := gopool.New(128) 
  2.  
  3. poller.Start(conn, netpoll.EventRead, func() { 
  4.     // We will block poller wait loop when 
  5.     // all pool workers are busy. 
  6.     pool.Schedule(func() { 
  7.         Receive(ch) 
  8.     }) 
  9. }) 

所以現在我們讀取數據包可以在池中使用了空閑的goroutine。

同樣,我們將更改Send() :

 

  1. pool := gopool.New(128) 
  2.  
  3. func (ch *Channel) Send(p Packet) { 
  4.     if c.noWriterYet() { 
  5.         pool.Schedule(ch.writer) 
  6.     } 
  7.     ch.send <- p 

 

而不是go ch.writer() ,我們想寫一個重用的goroutine。 因此,對于N goroutines池,我們可以保證在N請求同時處理并且到達N + 1我們不會分配N + 1緩沖區進行讀取。 goroutine池還允許我們限制新連接的Accept()和Upgrade() ,并避免大多數情況下被DDoS打垮。

零拷貝升級

讓我們從WebSocket協議中偏離一點。 如前所述,客戶端使用HTTP升級請求切換到WebSocket協議。 協議是樣子:

 

  1. GET /ws HTTP/1.1 
  2. Host: mail.ru 
  3. Connection: Upgrade 
  4. Sec-Websocket-Key: A3xNe7sEB9HixkmBhVrYaA== 
  5. Sec-Websocket-Version: 13 
  6. Upgrade: websocket 
  7.  
  8. HTTP/1.1 101 Switching Protocols 
  9. Connection: Upgrade 
  10. Sec-Websocket-Accept: ksu0wXWG+YmkVx+KQR2agP0cQn4= 
  11. Upgrade: websocket 

 

也就是說,在我們的例子中,我們需要HTTP請求和header才能切換到WebSocket協議。 這個知識點和http.Request的內部實現表明我們可以做優化。我們會在處理HTTP請求時拋棄不必要的內存分配和復制,并放棄標準的net/http服務器。

例如, http.Request 包含一個具有相同名稱的頭文件類型的字段,它通過將數據從連接復制到值字符串而無條件填充所有請求頭。 想像一下這個字段中可以保留多少額外的數據,例如大型Cookie頭。

但是要做什么呢?

WebSocket實現

不幸的是,在我們的服務器優化時存在的所有庫都允許我們對標準的net/http服務器進行升級。 此外,所有庫都不能使用所有上述讀寫優化。 為使這些優化能夠正常工作,我們必須使用一個相當低級別的API來處理WebSocket。 要重用緩沖區,我們需要procotol函數看起來像這樣:

 

  1. func ReadFrame(io.Reader) (Frame, error)  
  2. func WriteFrame(io.Writer, Frame) error 

如果我們有一個這樣的API的庫,我們可以從連接中讀取數據包,如下所示(數據包寫入看起來差不多):

 

  1. // getReadBuf, putReadBuf are intended to  
  2. // reuse *bufio.Reader (with sync.Pool for example). 
  3. func getReadBuf(io.Reader) *bufio.Reader 
  4. func putReadBuf(*bufio.Reader) 
  5.  
  6. // readPacket must be called when data could be read from conn. 
  7. func readPacket(conn io.Reader) error { 
  8.     buf := getReadBuf() 
  9.     defer putReadBuf(buf) 
  10.  
  11.     buf.Reset(conn) 
  12.     frame, _ := ReadFrame(buf) 
  13.     parsePacket(frame.Payload) 
  14.     //... 

 

簡而言之,現在是制作我們自己庫的時候了。

  1. github.com/gobwas/ws 

為了避免將協議操作邏輯強加給用戶,我們編寫了WS庫。 所有讀寫方法都接受標準的io.Reader和io.Writer接口,可以使用或不使用緩沖或任何其他I/O包裝器。

除了來自標準net/http升級請求之外, ws支持零拷貝升級 ,升級請求的處理和切換到WebSocket,而無需內存分配或復制。 ws.Upgrade()接受io.ReadWriter ( net.Conn實現了這個接口)。 換句話說,我們可以使用標準的net.Listen()并將接收到的連接從ln.Accept()立即傳遞給ws.Upgrade() 。 該庫可以復制任何請求數據以供將來在應用程序中使用(例如, Cookie以驗證會話)。

以下是升級請求處理的基準 :標準net/http服務器與net.Listen()加零拷貝升級:

 

  1. BenchmarkUpgradeHTTP 5156 ns/op 8576 B/op 9 allocs/op  
  2. BenchmarkUpgradeTCP 973 ns/op 0 B/op 0 allocs/op 

切換到ws和零拷貝升級節省了另外24 GB內存 - 這是由net/http處理程序請求處理時為I/O緩沖區分配的空間。

概要

讓我們結合代碼告訴你我們做的優化。

  • 讀取內部緩沖區的goroutine是非常昂貴的。 解決方案 :netpoll(epoll,kqueue); 重用緩沖區。
  • 寫入內部緩沖區的goroutine是非常昂貴的。 解決方案 :必要時啟動goroutine; 重用緩沖區。
  • DDOS,netpoll將無法工作。 解決方案 :重新使用數量限制的goroutines。
  • net/http不是處理升級到WebSocket的最快方法。 解決方案 :在連接上使用零拷貝升級。

這就是服務器代碼的樣子:

 

  1. import ( 
  2.     "net" 
  3.     "github.com/gobwas/ws" 
  4.  
  5. ln, _ := net.Listen("tcp"":8080"
  6.  
  7. for { 
  8.     // Try to accept incoming connection inside free pool worker. 
  9.     // If there no free workers for 1ms, do not accept anything and try later. 
  10.     // This will help us to prevent many self-ddos or out of resource limit cases. 
  11.     err := pool.ScheduleTimeout(time.Millisecond, func() { 
  12.         conn := ln.Accept() 
  13.         _ = ws.Upgrade(conn) 
  14.  
  15.         // Wrap WebSocket connection with our Channel struct. 
  16.         // This will help us to handle/send our app's packets. 
  17.         ch := NewChannel(conn) 
  18.  
  19.         // Wait for incoming bytes from connection
  20.         poller.Start(conn, netpoll.EventRead, func() { 
  21.             // Do not cross the resource limits. 
  22.             pool.Schedule(func() { 
  23.                 // Read and handle incoming packet(s). 
  24.                 ch.Recevie() 
  25.             }) 
  26.         }) 
  27.     }) 
  28.     if err != nil {    
  29.         time.Sleep(time.Millisecond) 
  30.     } 

結論

過早優化是萬惡之源。 Donald Knuth

當然,上述優化是有意義的,但并非所有情況都如此。 例如,如果可用資源(內存,CPU)和在線連接數之間的比例相當高(服務器很閑),則優化可能沒有任何意義。 但是,您可以從哪里需要改進以及改進內容中受益匪淺。

責任編輯:未麗燕 來源: 推酷
相關推薦

2022-06-13 08:55:01

aardio項目開發

2017-06-23 09:41:04

服務器負載火焰圖

2009-01-10 18:53:01

服務器ServerDNS

2018-10-24 10:52:09

2010-04-25 23:36:47

負載平衡服務器

2011-11-22 21:26:59

pfSense配置Web服務器負載均衡

2018-10-26 09:52:25

Nginx服務器負載均衡

2010-06-10 09:56:46

OpenSUSE使用

2013-12-13 09:52:58

VDI服務器負載均衡

2013-09-10 10:08:41

部署GPU服務器

2018-05-01 06:43:33

2019-08-30 08:39:33

WebSocketNginx服務器

2015-09-06 09:53:41

DockerWeave

2010-05-05 18:44:27

服務器負載均衡

2010-05-05 18:28:16

負載均衡服務器

2012-10-29 09:27:16

2011-03-23 15:13:08

Nagios監控oracle

2020-03-16 09:10:41

bindDNS服務器系統運維

2018-09-11 08:47:03

2018-09-11 08:37:05

高并發服務器優化
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: wwwsihu| 91精品导航 | 国产欧美在线观看 | 亚洲444eee在线观看 | 亚洲国产自产 | 亚洲电影一区二区三区 | 久久久久久久电影 | 日韩最新网址 | 黄色大片免费网站 | av免费网站在线 | 久久伊人免费视频 | 在线精品亚洲欧美日韩国产 | 手机看片在线播放 | 操久久 | 狠狠的操 | 欧美在线一级 | 日韩精品一区二区三区中文字幕 | 成人在线视频网站 | 成人a在线 | 欧美一区二区在线播放 | 欧美色综合 | 久久精品国产亚洲 | 黑人久久 | 久久在线免费 | 人人干人人超 | 国产精品成人一区二区三区 | 精品三区 | 欧美区在线 | 免费看91 | 欧美一区二区三区国产精品 | 美女爽到呻吟久久久久 | 国产精品成人久久久久 | 在线观看黄色大片 | 亚洲 精品 综合 精品 自拍 | 精品一区二区三区四区五区 | 久久爱综合 | 国产精品久久久久久婷婷天堂 | 久久最新精品 | 午夜久久久久久久久久一区二区 | 九九亚洲精品 | 亚洲一区二区电影在线观看 |