Hadoop集群與Hadoop性能優化
Hadoop性能優化:Hadoop機架感知實現及配置:分布式的集群通常包含非常多的機器,由于受到機架槽位和交換機網口的限制,通常大型的分布式集群都會跨好幾個機架,由多個機架上的機器共同組成一個分布式集群。機架內的機器之間的網絡速度通常都會高于跨機架機器之間的網絡速度,并且機架之間機器的網絡通信通常受到上層交換機間網絡帶寬的限制。
具體到Hadoop集群,由于Hadoop的HDFS對數據文件的分布式存放是按照分塊block存儲,每個block會有多個副本(默認為3),并且為了數據的安全和高效,所以Hadoop默認對3個副本的存放策略為:
在本地機器的hdfs目錄下存儲一個block
在另外一個rack的某個datanode上存儲一個block
在該機器的同一個rack下的某臺機器上存儲***一個block
這樣的策略可以保證對該block所屬文件的訪問能夠優先在本rack下找到,如果整個rack發生了異常,也可以在另外的rack上找到該block的副本。這樣足夠的高效,并且同時做到了數據的容錯。
但是,Hadoop對機架的感知并非是自適應的,亦即,Hadoop集群分辨某臺slave機器是屬于哪個rack并非是只能的感知的,而是需要Hadoop的管理者人為的告知Hadoop哪臺機器屬于哪個rack,這樣在Hadoop的namenode啟動初始化時,會將這些機器與rack的對應信息保存在內存中,用來作為對接下來所有的HDFS的寫塊操作分配datanode列表時(比如3個block對應三臺datanode)的選擇datanode策略,做到Hadoop allocate block的策略:盡量將三個副本分布到不同的rack。
接下來的問題就是:通過什么方式能夠告知Hadoop namenode哪些slaves機器屬于哪個rack?以下是配置步驟。
默認情況下,Hadoop的機架感知是沒有被啟用的。所以,在通常情況下,Hadoop集群的HDFS在選機器的時候,是隨機選擇的,也就是說,很有可能在寫數據時,Hadoop將***塊數據block1寫到了rack1上,然后隨機的選擇下將block2寫入到了rack2下,此時兩個rack之間產生了數據傳輸的流量,再接下來,在隨機的情況下,又將block3重新又寫回了rack1,此時,兩個rack之間又產生了一次數據流量。在job處理的數據量非常的大,或者往Hadoop推送的數據量非常大的時候,這種情況會造成rack之間的網絡流量成倍的上升,成為性能的瓶頸,進而影響作業的性能以至于整個集群的服務。
要將Hadoop機架感知的功能啟用,配置非常簡單,在namenode所在機器的Hadoop-site.xml配置文件中配置一個選項:
topology.script.file.name
/path/to/script
這個配置選項的value指定為一個可執行程序,通常為一個腳本,該腳本接受一個參數,輸出一個值。接受的參數通常為某臺datanode機器的ip地址,而輸出的值通常為該ip地址對應的datanode所在的rack,例如”/rack1”。Namenode啟動時,會判斷該配置選項是否為空,如果非空,則表示已經用機架感知的配置,此時namenode會根據配置尋找該腳本,并在接收到每一個datanode的heartbeat時,將該datanode的ip地址作為參數傳給該腳本運行,并將得到的輸出作為該datanode所屬的機架,保存到內存的一個map中。
至于腳本的編寫,就需要將真實的網絡拓樸和機架信息了解清楚后,通過該腳本能夠將機器的ip地址正確的映射到相應的機架上去。一個簡單的實現如下:
#!/usr/bin/perl -w
use strict;
my $ip = $ARGV[0];
my $rack_num = 3;
my @ip_items = split /\./, $ip;
my $ip_count = 0;
foreach my $i (@ip_items) {
$ip_count += $i;
}
my $rack = "/rack".($ip_count % $rack_num);
print "$rack";
功能測試
以下是分別就配置了機架感知信息和沒有配置機架感知信息的Hadoop HDFS啟動instance進行的數據上傳時的測試結果。
寫入數據
當沒有配置機架信息時,所有的機器Hadoop都默認在同一個默認的機架下,名為 “/default-rack”,這種情況下,任何一臺datanode機器,不管物理上是否屬于同一個機架,都會被認為是在同一個機架下,此時,就很容易出現之前提到的增添機架間網絡負載的情況。例如,對沒有機架信息的Hadoop HDFS啟動instance上傳一個文件,其block信息如下:
在沒有機架信息的情況下,namenode默認將所有的slaves機器全部默認為在/default-rack下,根據Hadoop代碼的分析也能知道哦啊,此時在寫block時,三個datanode機器的選擇完全是隨機的。
而當配置了機架感知信息以后,Hadoop在選擇三個datanode時,就會進行相應的判斷:
1.如果上傳本機不是一個datanode,而是一個客戶端,那么就從所有slave機器中隨機選擇一臺datanode作為***個塊的寫入機器(datanode1)。
而此時如果上傳機器本身就是一個datanode(例如mapreduce作業中task通過DFSClient向hdfs寫入數據的時候),那么就將該datanode本身作為***個塊寫入機器(datanode1)。
2.隨后在datanode1所屬的機架以外的另外的機架上,隨機的選擇一臺,作為第二個block的寫入datanode機器(datanode2)。
3.在寫第三個block前,先判斷是否前兩個datanode是否是在同一個機架上,如果是在同一個機架,那么就嘗試在另外一個機架上選擇第三個datanode作為寫入機器(datanode3)。而如果datanode1和datanode2沒有在同一個機架上,則在datanode2所在的機架上選擇一臺datanode作為datanode3。
4.得到3個datanode的列表以后,從namenode返回該列表到DFSClient之前,會在namenode端首先根據該寫入客戶端跟datanode列表中每個datanode之間的“距離”由近到遠進行一個排序。如果此時DFS寫入端不是datanode,則選擇datanode列表中的***個排在***位。客戶端根據這個順序有近到遠的進行數據塊的寫入。在此,判斷兩個datanode之間“距離”的算法就比較關鍵,Hadoop目前實現如下,以兩個表示datanode的對象DatanodeInfo(node1,node2)為例:
a)首先根據node1和node2對象分別得出兩個datanode在整個hdfs集群中所處的層次。這里的層次概念需要解釋一下:每個datanode在hdfs集群中所處的層次結構字符串是這樣描述的,假設hdfs的拓撲結構如下:
每個datanode都會對應自己在集群中的位置和層次,如node1的位置信息為“/rack1/datanode1”,那么它所處的層次就為2,其余類推。
b)得到兩個node的層次后,會沿著每個node所處的拓樸樹中的位置向上查找,如“/rack1/datanode1”的上一級就是“/rack1”,此時兩個節點之間的距離加1,兩個node分別同上向上查找,直到找到共同的祖先節點位置,此時所得的距離數就用來代表兩個節點之間的距離。所以,如上圖所示,node1和node2之間的距離就為4.
5.當根據“距離”排好序的datanode節點列表返回給DFSClient以后,DFSClient便會創建Block OutputStream,并想這次block寫入pipeline中的***個節點(最近的節點)開始寫入block數據。
6.寫完***個block以后,依次按照datanode列表中的次遠的node進行寫入,直到***一個block寫入成功,DFSClient返回成功,該block寫入操作結束。
通過以上策略,namenode在選擇數據塊的寫入datanode列表時,就充分考慮到了將block副本分散在不同機架下,并同時盡量的避免了之前描述的網絡多于開銷。
對配置了機架信息的Hadoop HDFS啟動instance上傳一個文件,其block信息如下:
在配置了機架信息的情況下,為了減少機架間的網絡流量,namenode會將其中兩個副本寫在同一個機架上,并且為了盡量做到容錯,會將第三個block寫道另一個機架上的datanode上。以上介紹Hadoop集群。
【編輯推薦】