HBase性能深度分析
對于BigTable類型的分布式數據庫應用來說,用戶往往會對其性能狀況有極大的興趣,這其中又對實時數據插入性能更為關注。HBase作為BigTable的一個實現,在這方面的性能會如何呢?這就需要通過測試數據來說話了。
數據插入性能測試的設計場景是這樣的:取隨機值的Rowkey長度為2000字節,固定值的Value長度為4000字節,由于單行Row插入速度太快,系統統計精度不夠,所以將插入500行Row做一次耗時統計。
這里要對HBase的特點做個說明,首先是Rowkey值為何取隨機數,這是因為HBase是對Rowkey進行排序的,隨機Rowkey將被分配 到不同的region上,這樣才能發揮出分布式數據庫的性能優點。而Value對于HBase來說不會進行任何解析,其數據是否變化,對性能是不應該有任 何影響的。同時為了簡單起見,所有的數據都將只插入到一個表格的同一個Column中。
初次分析
在測試之初,需要對集群進行調優,關閉可能大量耗費內存、帶寬以及CPU的服務(例如Apache的HTTP服務),保持集群的寧靜度。此外,為了保證測試不受干擾,HBase的集群系統需要被獨立,以保證不與HDFS所在的Hadoop集群有所交叉。
實驗
那么做好一切準備之后,就開始進行數據灌入,客戶端從Zookeeper上查詢到Regionserver的地址后,開始源源不斷地向HBase的Regionserver上喂入Row。
這里,我寫了一個通過JFreeChart來實時生成圖片的程序,每3分鐘,喂數據的客戶端會將獲取到的耗時統計打印在一張十字坐標圖中,這些圖又被保存在制定的Web站點中,并通過HTTP服務展示出來。在通過長時間不間斷的測試后,我得到了圖1。
圖1 插入Row的性能測試
圖1好似一條直線上,每隔一段時間就會泛起一個波浪,且兩個高峰之間必有一個較矮的波浪。高峰的間隔呈現出越來越大的趨勢,而較矮的波浪恰好處于兩高峰的中間位置。
解讀
為了解釋,我對HDFS上HBase所在的主目錄下文件,以及被插入表格的region情況進行了實時監控,以期發現這些波浪上發生了什么事情。
回溯到客戶端喂入數據的開始階段,創建表格,在HDFS上便被創建了一個與表格同名的目錄,該目錄下將出現第一個region,region中會以 family名創建一個目錄,這個目錄下才存在記錄具體數據的文件。同時在該表表名目錄下,還會生成一個“compaction.dir”目錄,該目錄將 在family名目錄下region文件超過指定數目時用于合并region。當第一個region目錄出現時,內存中最初被寫入的數據將被保存到該文件 中,這個間隔是由選項“hbase.hregion.memstore.flush.size”決定的,默認是64MB,該region所在的 Regionserver的內存中一旦有超過64MB的數據時,就將被寫入到region文件中。這個文件將不斷增殖,直到超過由 “hbase.hregion.max.filesize”決定的文件大小(默認是256MB,此時加上內存刷入的數據,實際最大可能到 256MB+64MB)時,該region將被執行split,立即被一切為二,其過程是在該目錄下創建一個名為“.splits”的目錄作為標記,然后 由Regionserver將文件信息讀取進來,分別寫入到兩個新的region目錄中,最后再將老的region刪除。這里的標記目錄 “.splits”可以避免在split過程中發生其他操作,起到類似于多線程安全的鎖功能。在新的region中,從老的region中切分出的數據獨 立為一個文件并不再接收新的數據(該文件大小超過了64MB,最大可達到(256+64)/2=160MB)),內存中新的數據將被保存到一個重新創建的 文件中,該文件大小將為64MB。內存每刷新一次,region所在的目錄下就將增加一個64MB的文件,直到總文件數超過由 “hbase.hstore.compactionThreshold”指定的數量時(默認為3),compaction過程就將被觸發了。在上述值為3 時,此時該region目錄下,實際文件數只有兩個,還有額外的一個正處于內存中將要被刷入到磁盤的過程中。Compaction過程是HBase的一個 大動作。HBase不僅要將這些文件轉移到“compaction.dir”目錄進行壓縮,而且在壓縮后的文件超過256MB時,還必須立即進行 split動作。這一系列行為在HDFS上可謂是翻山倒海,影響頗大。待Compaction結束之后,后續的split依然會持續一小段時間,直到所有 的region都被切割分配完畢,HBase才會恢復平靜并等待下一次數據從內存寫入到HDFS。
圖2 再次的數據插入測試
理解了上述過程,就必然會對HBase的數據插入性能為何是圖1所示的曲線的原因一目了然。與X軸幾乎平行的直線,表明數據正在被寫入HBase的 Regionserver所在機器的內存中。而較低的波峰意味著Regionserver正在將內存寫入到HDFS上,較高的波峰意味著 Regionserver不僅正在將內存刷入到HDFS,而且還在執行Compaction和Split兩種操作。如果調整 “hbase.hstore.compactionThreshold”的值為一個較大的數量,例如改成5,可以預見,在每兩個高峰之間必然會等間隔地出 現三次較低的波峰,并可預見到,高峰的高度將遠超過上述值為3時的高峰高度(因為Compaction的工作更為艱巨)。由于region數量由少到多, 而我們插入的Row的Rowkey是隨機的,因此每一個region中的數據都會均勻的增加,同一段時間插入的數據將被分布到越來越多的region上, 因此波峰之間的間隔時間也將會越來越長。
再次理解上述論述,我們可以推斷出HBase的數據插入性能實際上應該被分為三種情況:直線狀態、低峰狀態和高峰狀態。在這三種情況下得到的性能數 據才是最終HBase數據插入性能的真實描述。那么提供給用戶的數據該是采取哪一個呢?我認為直線狀態由于所占時間會較長,尤其在用戶寫入數據的速度也許 并不是那么快的情況下,所以這個狀態下得到的性能數據結果更應該提供給用戶。
圖3 圖1的數據分布圖
再度分析
前面的HBase性能深度分析,提出了一個猜想,是關于調整“hbase.hstore.compaction-Threshold”值的假設。猜 想的內容為:如果改變該值,例如調整為5,那么耗時圖形會在每兩個高峰之間出現等間隔的三次較低的波峰,并且高峰將會更加突出,超過上述值較低時的波峰高 度。
為了證明這個猜想,我將“hbase.hstore.compactionThreshold”值調整為5,并重新做了數據插入測試,一段時間后, 得到如圖2所示的性能圖形(Y軸表示耗時,X軸為插入次數,Sandy建議這里的Y軸應該改為插入速度,但是由于前次已經使用了耗時為Y軸,因此改變Y軸 顯示的工作只能放到下次測試中了)。
通過相比發現,圖1和圖2的Y軸比例尺是不同的,圖1中Y軸最大為30秒,圖2中最大為50秒。可見假設中聲稱低峰會在兩個高峰之間等間隔的出現3 次的現象的確是成立的。當高峰出現第5次以后,可以從圖2看到代表耗時的點的高峰段已經達到了25秒以上,而對于前次來說,高峰段基本上處于20秒左右, 由此可以認為Compaction的壓力的確是增加了。現在換一個角度來分析這一情況。我為圖1制作了一張數據分布圖(圖3),與圖2進行比較(圖4)。
雖說第二次測試經歷的時間不如第一次,但是基于統計學的觀點,分布圖的外形是不會受樣本容量大小影響的,因此圖3和圖4可以進行外觀上的比較。這兩 張分布圖都是典型的正態分布圖,但又不是標準正態分布,原因在于,波峰段的數據影響了正態分布的標準性,表現之一在于右側的長尾,表現之二在于眾數所在位 置右移,以至于左側凸顯了一個小波峰。
圖4 圖2的數據分布圖
計算本次分布圖與前次分布圖中位于右側長尾部分的數據的標準差(計算公式:),我們可以得到前次右側標準差為4.10390692438,而本次右側標準差為7.12068861446,說明高峰段影響的數據右偏更為嚴重了。
從外觀上表現在右側長尾在整圖比例尺中的寬度和高度要大于前次分布圖中的右側長尾。這說明Compaction的壓力增大了。
推導到這里,我發現右側標準差與Compaction的壓力之間是存在顯著關系的,今后對Compaction壓力增減的估算,貌似可以轉換為對右 側標準差的計算。壓力增加的比率是否等于標準差的比值呢?這里先做一個標記,等后面有時間再仔細思考一下這個問題。現在假設中的說法“高峰將會更加突出, 超過上述值較低時的波峰高度”,應該算是被證明了。
以上論證結束之后,按照慣例還是要提出一些假設和推斷。
HBase在已經發布的0.90.x版對Compaction和Split機制作了調整,將Split過程提到了Compaction之前,也就是 說,當region目錄下,HFiles數目超過“hbase.hstore.compactionThreshold”指定值之 后,Regionserver會首先計算一下Compaction之后的文件大小是否會超過“hbase.hregion.max.filesize”確 定的Split上限大小,如果超過了,那么HFiles首先被切分,然后才會將切分好的文件轉移到新的region中Compaction。這樣將大大減 小Compaction的壓力,由此可以推斷,HBase的性能調優必然與“hbase.hstore.compactionThreshold”和 “hbase.hregion.max.filesize”這兩個值的大小息息相關。理論上,可以將某次設定了確定值的實驗中獲得的數據代入到一個特定公 式中,上述兩值作為該公式的自變量,其應變量,即性能數據,將可以輕松地計算出來。
是否真的如此,且待進一步的詳細測試。
【編輯推薦】