Hive動態分區導致的Jobtracker Hang問題
熟悉Jobtracker的都知道,在進行Job初始化時EagerTaskInitializationListener會鎖住JobInProgress然后進行InitTask,細節請各位查看代碼,這里有一步就是需要向hdfs寫入初始數據并flush,而Fairscheduler的Update Thread在更新資源池的資源時是在持有JobTracker和Fairscheduler的獨占鎖然后再去計算每個資源池的資源情況,而計算running_map/running_reduce的時候要去獲取相應的JobInProgress鎖,各位讀者可能不明白,我為啥要講這塊呢,問題就出現在這里.
Hive在處理動態分區的時候,主要經歷這么幾個步驟tablescan->filesink->movetask
在進行filesink的時候是根據記錄來處理的,會起N(part)個record writer然后開始處理動態分區字段,即這里的dt,如果dt是連續的那么打開一個block開始寫,否則關閉當前block,打開新dir的block繼續寫,這里如果dt是不連續的出現并且記錄數量巨大的情況下會產生大量的文件,導致hdfs的負載標高,和當時的hdfs的監控是匹配的:
當時的集群負載:
當時產生的文件數:
進而導致JobInProgress被鎖住,從而JobTracker被鎖住,導致JobTracker Hang住了!
那怎么解決呢?利用distributeby dt把相同的dt排列到一起再進行filesink就不會造成大量的小文件產生了。
原文鏈接:http://boylook.blog.51cto.com/7934327/1380981