GC耗時高,原因竟是服務流量小?
最近,我們系統配置了GC耗時的監控,但配置上之后,系統會偶爾出現GC耗時大于1s的報警,排查花了一些力氣,故在這里分享下。
我們系統分多個環境部署,出現GC長耗時的是俄羅斯環境,其它環境沒有這個問題,這里比較奇怪的是,俄羅斯環境是流量最低的一個環境,而且大多數GC長耗時發生在深夜。
發現報警后,我立馬查看了GC日志,如下:
日志中出現了to-space exhausted,經過一番了解,出現這個是由于g1在做gc時,都是先復制存活對象,再回收原region,當沒有空閑空間復制存活對象時,就會出現to-space exhausted,而這種GC場景代價是非常大的。
同時,在這個gc發生之前,還發現了一些如下的日志。
這里可以看到,系統在分配約30M+的大對象,難道是有代碼頻繁分配大對象導致的gc問題。
jdk在分配大對象時,會調用G1CollectedHeap::humongous_obj_allocate方法,而使用async-profiler可以很容易知道哪里調用了這個方法,如下:
將humongous.jfr文件用jmc打開,如下:
根據調用棧我發現,這是我們的一個定時任務,它會定時調用一個接口獲取配置信息并緩存它,而這個接口返回的數據量達14M之多。
難道是這個接口導致的gc問題?但這個定時任務調用也不頻繁呀,5分鐘才調用一次,不至于讓gc忙不過來吧!另一個疑問是,這個定時任務在其它環境也會運行,而且其它環境的業務流量大得多,為什么其它環境沒有問題?
至此,我也不確定是這個定時任務導致的問題,還是系統自身特點導致偶爾的高gc耗時。
由于我們有固定的上線日,于是我打算先優化產生大對象的代碼,然后在上線前的期間試著優化一下jvm gc參數。
我們使用的是httpclient調用接口,調用接口時,代碼會先將接口返回數據讀取成String,然后再使用jackson把String轉成map對象,簡化如下:
要優化它也很簡單,使用jackson的readValue有一個傳入InputStream的重載方法,用它來讀取json數據,而不是將其加載成一個大的String對象再讀,如下:
注:這里面map從邏輯上來說是一個大對象,但對jvm來說,它只是很多個小對象然后用指針連接起來而已,大對象一般由大數組造成,大String之所以是大對象,是因為它里面有一個很大的char[]數組。
優化完代碼后,我開始研究優化jvm gc參數了,我們使用的是jdk8,垃圾收集器是g1,為了理解g1的調優參數,又簡單學習了下g1的關鍵概念。
g1是分region收集的,但region也分年輕代與老年代。
g1的gc分young gc與mixed gc,young gc用于收集年輕代region,mixed gc會收集年輕代與老年代region。
在mixed gc回收之前,需要先經歷一個并發周期(Concurrent Cycles),用來標記各region的對象存活情況,讓mixed gc可以判斷出需要回收哪些region。
并發周期分為如下4個子階段:a. 初始標記(initial marking)b. 并發標記(concurrent marking)c. 重新標記(remarking)d. 清理(clean up)需要注意的是,初始標記(initial marking)這一步是借助young gc完成的。
在g1中,young gc幾乎沒有什么可調參數,而mixed gc有一些,常見如下:
參數 | 作用 |
-XX:InitiatingHeapOccupancyPercent | 開始mixed gc并發周期的堆占用閾值,當大于此比例,啟動并發周期,默認45% |
-XX:ConcGCThreads | 在并發標記時,使用多少個并發線程。 |
-XX:G1HeapRegionSize | 每個region大小,當分配對象尺寸大于region一半時,才認為這是一個大對象。 |
-XX:G1MixedGCLiveThresholdPercent | region存活比例,默認85%,當并發標記后發現region中存活對象比例小于這個值,mixed gc才會回收這個region,畢竟一個region如果都是存活的對象,那還有什么回收的必要呢。 |
-XX:G1HeapWastePercent | 允許浪費的堆比例,默認5%,當可回收的內存比例大于此值時,mixed gc才會去執行回收,畢竟沒什么可回收的對象時,還有什么回收的必要呢。 |
-XX:G1MixedGCCountTarget | mixed gc執行的次數,一旦并發標記周期確認了回收哪些region后,mixed gc就進行回收,但mixed gc會分少量多次來回收這些region,默認8次。 |
-XX:G1OldCSetRegionThresholdPercent | 每次mixed gc回收old region的比例,默認10%,如果G1MixedGCCountTarget是8的話,mixed gc整體能回收80%。 |
-XX:G1ReservePercent | 堆保留空間比例,默認10%,這部分空間g1會保留下來,用來在gc時復制存活對象。 |
出現to-space exhausted會不會是mixed gc太慢了呢?于是我調整了如下參數:
- 讓并發標記周期啟動更早,運行得更快,將-XX:InitiatingHeapOccupancyPercent從默認值45%調整到35%,-XX:ConcGCThreads從1調整為3。
- -XX:G1MixedGCLiveThresholdPercent與-XX:G1HeapWastePercent確定回收哪些region,有多少比例垃圾才執行回收,我覺得它們的值本來就蠻激進,就沒有調整。
- -XX:G1MixedGCCountTarget與-XX:G1OldCSetRegionThresholdPercent控制mixed gc執行多少次,每次回收多少region,我將-XX:G1OldCSetRegionThresholdPercent從10%調整到了15%,讓它一次多回收些old region。
- 增加保留空間,避免復制存活對象失敗,將-XX:G1ReservePercent從10%調整到20%。
- 盡量避免產生大對象,將-XX:G1HeapRegionSize增加到16m。
于是我按照上面調整了jvm參數,可是第二天我發現還是有GC長耗時,次數也沒有減少,看來問題根因和我調整的參數沒有關系。
問題根因
就這樣,到了上線日,于是我上線了前面優化大對象的代碼,一天后,我發現偶爾的GC長耗時竟然沒有了!
問題就這樣解決了!!!
然而我心里還是有一個大大的問號,其它環境同樣有這個定時任務,一樣的運行頻率,jvm配置也全是一樣的,為啥其它環境沒有問題呢?其它環境業務流量還大一些!
為此,我搜索了大量關于g1大對象的文章,我發現大對象的分配與回收過程有點特殊,如下:
- 大于region size一半的對象是大對象,會直接分配在old region,且gc時大對象不會被復制或移動,而是直接回收。
- 大對象回收發生在2個地方,一個是并發周期的clean up子階段,另一個是young gc(這個特性在jdk8u60才加入)。
我忽然想到,莫非是俄羅斯環境流量太低,觸發不了young gc,且并發周期又因為什么原因沒執行,但定時任務又慢慢生成大對象將old region占滿,導致了to-space exhausted?
于是,我打算寫段代碼試驗一下,慢慢的只生成大對象,看g1會不會回收,如下:
這個一個命令行交互程序,使用如下jvm參數啟動它:
使用了1600M的堆,16M的region size,所以總共有100個region,jdk版本是1.8.0_222。通過在這個交互程序中輸入gc 9437184 20 0,可以生成20個9M的大對象。
當我輸入3次gc 9437184 20 0后,如下:我從gc日志中發現了一次由initial marking觸發的young gc,說明g1啟動了并發周期,之所以發生young gc,是因為initial marking是借助ygc執行的。
緊接著,我發現了并發標記、重新標記與清理階段的日志。
然后我在jstat中發現老年代使用率降低了,因為young gc會回收大對象,所以老年代使用率降低也是正常的。
當我又執行了2次gc 9437184 20 0后,使得堆占用率再次大于45%,我發現gc日志中出現如下內容:
看字面意思是,由于mixed gc正在執行,沒有再次啟動并發周期。
可是,我在這種狀態下等了好久,也沒有看到mixed gc的日志出來,不是說mixed gc正在執行嚒,它一定是有什么問題!
于是,我又執行了好幾次gc 9437184 20 0,我在gc日志中發現了to-space exhausted!
- 從上面do not start mixed GCs, reason: candidate old regions not available的日志中看到,mixed gc日志之所以長時間沒出來,是因為沒有可回收的region導致mixed gc沒有執行,因為我們只創建了大對象,但mixed gc不回收大對象分區,所以確實是沒有可回收的region的。
- 從Humongous Reclaimed: 98可以發現,這次young gc,回收了98個大對象分區,而我們總共只有100個分區,說明在inital marking之后創建的大對象,確實一直都沒有回收。
注:添加-XX:G1LogLevel=finest參數,才能輸出Humongous Reclaimed這一項。
但是,大對象分區占了98個,堆占用率肯定超過了45%,為何一直沒有再次啟動并發周期呢?
感覺這可能是jdk的bug,于是我分別下了最新的jdk8u與jdk11u驗證,發現問題在最新的jdk8u中依然存在,而jdk11u中則不存在,這應該就是JDK的Bug!于是我通過二分搜索法多次編譯了不同版本的JDK,最終確定問題fix在jdk9_b93與jdk9_b94之間。
并在jdk的bug庫中,搜索到了相同描述的bug反饋,如下:
https://bugs.openjdk.org/browse/JDK-8140689
Bug改動代碼如下:
大致瞄了下代碼,可能理解得不完全正確,改動邏輯如下:
- G1再次啟動并發周期之前,至少需要執行過一次mixed gc或young gc,類似于Concurrent Cycles -> mixed gc|young gc -> Concurrent Cycles -> mixed gc|young gc。
- 我們的場景是,在并發周期結束之后,由于沒有需要回收的分區,導致mixed gc實際沒有執行,可是我們只分配了大對象,且大對象又只分配在old region,所以young gc也不可能被觸發,而由于上面的條件,Concurrent Cycles也不會被觸發,因此最終大對象將堆占滿觸發了to-space exhausted。
- 修復邏輯是,當并發周期結束后,沒有需要回收的分區時,should_continue_with_reclaim=false,進而使得允許不執行純young gc而直接啟動并發周期,類似于Concurrent Cycles -> Concurrent Cycles。
所以在使用JDK8時,像那種系統流量很小,新生代較大,又有定時任務不斷產生大對象的場景,堆幾乎必然會被慢慢占滿,要解決這個問題,可參考如下處理:
- 優化代碼,避免分配大對象。
- 代碼無法優化時,可考慮升級jdk11。
- 無法升級jdk11時,可考慮減小-XX:G1MaxNewSizePercent讓新生代小一點,讓young gc能執行得更頻繁些,同時老年代更大,能緩沖更多大對象分配。
考慮到我們負責的其它系統中,時不時就有一波大響應體的請求,也沒法快速修改代碼,于是我統一將-XX:G1MaxNewSizePercent減小到30%,經過觀察,修改后GC頻率有所增加,但暫停時間有所下降,這是符合期望的。
總結
當我在jdk的bug庫中搜索問題時,發現不少和G1大對象相關的優化,早期JDK(如JDK8)的G1實現可能在大對象回收上不太完善,所以寫代碼時要注意盡量少創建大對象,以回避這些隱性問題。
注:這之后又遇到了Update RS (ms)耗時高,竟也和大對象有關,添加-XX:-ReduceInitialCardMarks后解決,看來大對象是萬惡之源啊??