成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

使用增強版 Singleflight 合并事件推送,效果炸裂!

開發 前端
理論上,如果沒有并發,事件和以前一樣推送,沒有合并,當然這也沒毛病。當并發大于 2 時,開始發揮威力。在實際的壓測上,注冊并發 1500 時,合并的事件達到 99.9%,效果相當炸裂!

hello,大家好啊,我是小樓。

最近在工作中對 Go 的 singleflight 包做了下增強,解決了一個性能問題,這里記錄下,希望對你也有所幫助。

singleflight 是什么

singleflight 直接翻譯為"單(次)飛(行)",它是對同一種請求的抑制,保證同一時刻相同的請求只有一個在執行,且在它執行期間的相同請求都會 Hold 直到執行完成,這些 Hold 的請求也使用這次執行的結果。

舉個例子,當程序中有讀(如 Redis、MySQL、Http、RPC等)請求,且并發非常高的情況,使用 singleflight 能得到比較好的效果,它限制了同一時刻只有一個請求在執行,也就是并發永遠為1。

圖片

singleflight 的原理

最初 singleflight 出現在 groupcache 項目中,這個項目也是 Go 團隊所寫,后來該包被移到 Go 源碼中,在 Go 源碼中的版本經過幾輪迭代,稍微有點復雜,我們以最原始的源碼來講解原理,更方便地看清本質。

https://github.com/golang/groupcache/blob/master/singleflight/singleflight.go

singleflight 把每次請求定義為 call,每個 call 對象包含了一個 waitGroup,一個 val,即請求的返回值,一個 err,即請求返回的錯誤。

type call struct {
 wg  sync.WaitGroup
 val interface{}
 err error
}

再定義全局的 Group,包含一個互斥鎖 Mutex,一個 key 為 string,value 為 call 的 map。

type Group struct {
 mu sync.Mutex       
 m  map[string]*call
}

Group 對象有一個 Do 方法,其第一個參數是 string 類型的 key,這個 key 也就是上面說的 map 的 key,相同的 key 標志著他們是相同的請求,只有相同的請求會被抑制;第二個參數是一個函數 fn,這個函數是真正要執行的函數,例如調用 MySQL;返回值比較好理解,即最終調用的返回值和錯誤信息。

func (g *Group) Do(key string, fn func() (interface{}, error)) (interface{}, error) {
 // ①
  g.mu.Lock()
 if g.m == nil {
  g.m = make(map[string]*call)
 }
  // ②
 if c, ok := g.m[key]; ok {
  g.mu.Unlock()
  c.wg.Wait()
  return c.val, c.err
 }
  // ③
 c := new(call)
 c.wg.Add(1)
 g.m[key] = c
 g.mu.Unlock()

 c.val, c.err = fn()
 c.wg.Done()

 g.mu.Lock()
 delete(g.m, key)
 g.mu.Unlock()

 return c.val, c.err
}

將整個代碼分成三塊:

  • ① 懶加載方式初始化 map;
  • ② 如果當前 key 存在,即相同請求正在調用中,就等它完成,完成后直接使用它的 value 和 error;
  • ③ 如果當前 key 不存在,即沒有相同請求正在調用中,就創建一個 call 對象,并把它放進 map,接著執行 fn 函數,當函數執行完喚醒 waitGroup,并刪除 map 相應的 key,返回 value 和 error。

讀可以抑制,寫呢?

我們通過上面的介紹能了解,singleflight 能解決并發讀的問題,但我又遇到一個并發寫的問題。為了能讓大家快速進入狀態,先花一點篇幅描述一下遇到的實際問題:

微服務中的注冊中心想必大家都有所了解,如果不了解,可以去查查相關概念,或者翻看我以前的文章,老讀者應該能發現我寫了很多相關的文章。

服務提供方在注冊之后,會將變更事件推送到消費方,推送事件的處理流程是:接收到事件,查詢組裝出最新的數據,然后推送給訂閱者。存在兩種情況可能會導致短時間內注冊請求非常多,推送事件多會影響整個注冊中心的性能:

  • 接口級注冊(類似 Dubbo),每臺機器會注冊N多次
  • 服務并發發布,例如每次發布重啟100臺機器,那么注冊的并發就可能是100

拿到這種問題,第一想到的解法是:合并推送。但,怎么合并呢?

是不是每次推送的時候等一等,等事件都來了再一把推過去就可以了?但等多久呢?什么時候該等呢?粗暴點,每秒鐘推送一次,這樣就能將一秒內的時間都聚合,但這會影響推送的時效性,顯然不符合我們精益求精的要求。

直接使用 singleflight,能行嗎?

套用上面 singleflight ,在第一個事件推送過程中,其他相同的事件被 Hold 住,等第一個事件推送完成后,這些 Hold 的事件不再執行推送直接返回。

稍微想一下就知道這樣是有問題的,假設有三個事件 A、B、C,分別對應到三個版本的數據A1、B1、C1,A 最先到達,在 A 開始推送后但沒完成時 B、C 事件到達,A 事件觸發推送了 A1 版本的數據,B、C 事件在 A 事件推送完成后,直接丟棄,最終推送到消費者上的數據版本為 A1,但我們肯定期望推送的數據版本為 C1,畫個圖線感受下:

圖片

增強一點點 ????

假設有事件 A、B、C、D 先后到達,A 事件仍然先正常執行推送,在 A 事件推送的時候,B、C、D 事件 Hold 住,當 A 事件推送完成后,B 事件開始推送,B 事件將把 A 事件推送時期積攢的事件都一起推送掉,即 B、C、D 一次性推送完成。

圖片

增強代碼參考

增強的定義為 WriteGroup,借用 singleflight 原先的實現,具體代碼就不必解讀了,對照上面的例子應該很好理解。

package singleflight

import (
 "sync"
)

type WriteGroup struct {
 mu    sync.Mutex
 wgs   map[string]*sync.WaitGroup
 group Group
}

func (g *WriteGroup) Do(key string, fn func() error) error {
 g.mu.Lock()
 if g.wgs == nil {
  g.wgs = make(map[string]*sync.WaitGroup)
 }
 wg, ok := g.wgs[key]
 if !ok {
  wg = &sync.WaitGroup{}
  wg.Add(1)
  g.wgs[key] = wg
 }
 g.mu.Unlock()

 if !ok {
  err := fn()

  g.mu.Lock()
  wg.Done()
  delete(g.wgs, key)
  g.mu.Unlock()
  return err
 }

 wg.Wait()
 _, err := g.group.Do(key, func() (interface{}, error) {
  return nil, fn()
 })
 return err
}

效果如何?

理論上,如果沒有并發,事件和以前一樣推送,沒有合并,當然這也沒毛病。當并發大于 2 時,開始發揮威力。在實際的壓測上,注冊并發 1500 時,合并的事件達到 99.9%,效果相當炸裂!

責任編輯:武曉燕 來源: 捉蟲大師
相關推薦

2023-09-03 19:43:46

htmxJavaScript網絡

2011-01-05 11:12:34

C++

2013-05-15 09:14:01

2011-09-15 14:00:52

IOS應用SpoolInstapaper

2021-01-27 10:01:46

MySQL數據庫SQLX

2022-09-21 10:50:43

pickledillPython

2011-05-26 17:55:08

2009-01-05 10:30:23

賽門鐵克Veritas數據中心

2009-12-29 14:18:43

ADO.NET2.0

2015-09-23 11:27:20

Office 2016ISO鏡像微軟

2013-08-20 17:46:43

通達OA

2023-04-06 08:27:47

SidecarSet容器

2013-10-09 14:57:41

通達oa

2023-09-12 11:10:00

代碼優化Go

2012-08-28 13:37:30

2010-08-25 10:42:20

GroovyGroovy++

2023-04-04 07:25:46

KubernetesOpenKruise

2023-05-30 14:59:41

人工智能工具數字化

2013-10-15 14:40:51

通達OA
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 亚洲第一天堂 | 免费在线性爱视频 | 国产精品成人一区二区三区 | 欧美激情国产日韩精品一区18 | 日本粉嫩一区二区三区视频 | 亚洲1区 | 色视频在线免费观看 | 精品国产一区二区国模嫣然 | 国产视频第一页 | 91传媒在线观看 | 免费观看一级毛片 | 亚洲视频在线免费观看 | 成人不卡视频 | 精品国产一区二区三区四区在线 | 中文字幕av一区 | 日韩有码在线播放 | 女女爱爱视频 | 久久成人人人人精品欧 | 久久国产精品亚洲 | 久久999| 中文字幕一区二区三区四区五区 | 国产色婷婷久久99精品91 | 精品国产乱码久久久久久牛牛 | 久草视| 韩日一区二区三区 | 色综合久久天天综合网 | 国产一级特黄真人毛片 | 亚洲乱码一区二区 | 免费国产一区二区 | 久久久国产精品 | 久久精品一区二区三区四区 | av激情在线 | 台湾佬成人网 | 国产视频三区 | 欧美日韩一区在线观看 | 99精品久久久国产一区二区三 | 成人影视网址 | 91视频精选| 四虎最新| 亚洲成av人片在线观看无码 | 国产a视频 |