云計算背后的秘密(5)-Google的數據中心優化技術
談到云計算的誕生,肯定離不開一個地方,那就是Google的數據中心,而且Google的數據中心,不僅擁有數量龐大的服務器集群,而且整體運行效率很高,PUE(Power Usage Effectiveness,電力使用效率)很低,當然這些成績肯定離不開數據中心高溫化,12V電池和服務器整合這三個數據中心優化技術。
數據中心高溫化
大中型數據中心的PUE普遍在2左右,也就是在服務器等計算設備上耗1度電,在空調等輔助設備上也要消耗一度電。對一些非常出色的數據中心,最多也就能達到1.7,但是Google通過一些有效的設計使部分數據中心到達了業界領先的1.2,在這些設計當中,其中最有特色的莫過于數據中心高溫化,也就是讓數據中心內的計算設備運行在偏高的溫度下,Google的能源方面的總監Erik Teetzel在談到這點的時候說:“普通的數據中心在70華氏度(21攝氏度)下面工作,而我們則推薦80華氏度(27攝氏度)“。
但是在提高數據中心的溫度方面會有兩個常見的限制條件:其一是服務器設備的崩潰點;其二是精確的溫度控制。如果做好這兩點,數據中心就能夠在高溫下工作,因為假設數據中心的管理員能對數據中心的溫度進行正負1/2度的調節,這將使服務器設備能在崩潰點5度之內工作,而不是常見的20度之內,這樣既經濟,又安全。
還有,業界傳言Intel為Google提供抗高溫設計的定制芯片,但云計算界的頂級專家James Hamilton認為不太可能,因為雖然處理器也非常懼怕熱量,但是與內存和硬盤相比還是強很多,所以處理器在抗高溫設計中并不是一個核心因素。同時他也非常支持使數據中心高溫化這個想法,而且期望將來數據中心甚至能運行在40攝氏度下,這樣不僅能節省空調方面的成本,而且對環境也很有利。
12V電池
由于傳統的UPS在資源方面比較浪費,所以Google在這方面另辟蹊徑,采用了給每臺服務器配一個專用的12V電池的做法來替換了常用的UPS,如果主電源系統出現故障,將由該電池負責對服務器供電。雖然大型UPS可以達到92%到95%的效率,但是比起內置電池的99.99%而言是非常捉襟見肘的,而且由于能量守恒的原因,導致那么未被UPS充分利用的電力會被轉化成熱能,這將導致用于空調的能耗相應地攀升,從而走入一個惡性循環。同時在電源方面也有類似的“神來之筆”,普通的服務器電源會同時提供5V和12V的直流電。但是Google設計的服務器電源只輸出12V直流電,必要的轉換在主板上進行,雖然這種設計會使主板的成本增加1美元到2美元,但是它不僅能使電源能在接近其峰值容量的情況下運行,而且在銅線上傳輸電流時效率更高。
服務器整合
談到虛擬化的殺手锏時,第一個讓人想到肯定是服務器整合,而且普遍能實現1:8的整合率來降低各方面的成本。有趣的是,Google在硬件方面也引入類似服務器整合的想法,它的做法是在一個機箱大小的空間內放置兩臺服務器,這些做的好處有很多,首先,減小了占地面積。其次,通過讓兩臺服務器共享諸如電源等設備,來降低設備和能源等方面的投入。
通過這三種數據中心優化技術,使得Google在運維方面節省了大量開支,同時隨著云計算中心慢慢地在全世界“開花結果”,我覺得這三種技術將來會被越來越多的數據中心引入。
作者簡介
吳朱華,之前在IBM中國研究院參與過多個云計算產品的開發工作,現在專注于YunTable(http://code.google.com/p/yuntable/)和YunEngine(http://yunengine.com/)的研發,并即將發表《剖析云計算》一書,敬請期待。
【編輯推薦】
- 云計算背后的秘密(3)-BigTable
- 云計算背后的秘密(2)-GFS
- 云計算背后的秘密(1)-MapReduce
- 云計算背后的秘密(4)-Chubby
- 云計算背后的秘密(6)-NoSQL數據庫綜述