成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

Google數據中心PUE的秘密

云計算
18個月前,Facebook開放了自己數據中心設計的藍圖,18個月后Google也首次公布了自己數據中心內部的照片。不可否認,Facebook的許多設計思想是從Google學來的。上個月,Google也公開了其數據中心設計的文檔,其中許多理念值得學習,CSDN對重點部分進行了編譯。

盡管距離Facebook公開其數據中心設計藍圖已經過去了一年半,但Google公布的數據中心設計還是值得研究。不可否認,Google和亞馬遜依然是地球上擁有***進的數據中心的兩個公司,包括Facebook服務器實驗室系統工程經理Amir Michael、Prineville數據中心總經理Ken Patchett在內的許多工程師都來自Google。上個月,我們***次了解到Google數據中心內部的景象,不過這些照片并不是Google***進的數據中心,其中所包含的信息量也相當有限。同樣的,Google公布的自己數據中心的文檔更像是一次炫耀,大篇幅的展示了極低的PUE,而對設計細節忽略不提。盡管如此,我們還可以從其中發現有價值的信息。好,讓我們開始。

 

[[104172]]

圖:Goole芬蘭哈米納港數據中心量化和提升能源的使用

 

當面臨互聯網應用服務器爆炸式增長的局面,我們將精力放在如何減少能源使用上。大多數數據中心就像給服務器供電一樣,給非計算用設備無限制的供電(即日常管理、制冷等)。在Google,我們將傳統數據中心的制冷用電比例降低到13%。這樣,大部分的電能用于服務器,這些服務器將為搜索及其它產品提供支持。我們對用電量進行測量,不斷的朝目標行進——提供更多服務,減少電量浪費。

如何降低PUE——Google的5點建議

不管你運營的是小型數據中心還是大型的數據中心,你都可以采用一些簡單的設計來提升效率,降低成本并減少對環境的影響。

1、測量PUE

沒有測量就沒有管理,采用更綜合的方法測量PUE。

我們的計算基于Google在全球所有的數據中心的性能,不僅僅是我們***的或***的數據中心。同時,統計數據貫穿全年,并不僅統計涼爽的季節。

不僅如此,我們還將所有的日常產生的耗能全部進算在其中。當然,只要采用更寬松的Green Grid v2標準(Green Grid's PUE measurement standards。Green Grid是一個非盈利的企業團隊,成員包括 AMD、APC、Cisco、Dell、Emerson、Fujitsu、Fujitsu Siemens、HP、IBM、Intel、微軟和Sun等供應商以及ADP、Allstate、BT、Enterprise、Facebook和Fed Ex Services等用戶。),就可以得出更低PUE值。事實上,如果使用業界通常的解釋,我們效率***的數據中心可以不夸張的達到PUE 1.06。然而,我們堅持使用更高的標準,因為我們相信這可以有助于更好的統計和優化我們的用電??傊?,我們公布的綜合PUE為1.13,覆蓋全球所有的數據中心,并貫穿全年,以及所有的日常用電。

 

 

圖:Google數據中心PUE統計邊界。平均PUE為1.13,如果忽略變電站、電源轉換以及發電設備,PUE將降低到1.06。

Google數據中心PUE統計

自從2008年開始公開PUE后,每年我們都不斷的降低PUE。截至到2012年第二季度,過去12個月的加權平均值(TTM)PUE達到了1.13,這是全球效率***的數據中心。

 

 

圖:Google自2008年以來的PUE統計

 

 

圖:Google數據中心PUE計算取值含義

這里是從2008年到現在的Google數據中心PUE統計,如果想了解Google數據中心PUE的計算公式,可以在這里找到。 #p# 

2、管理氣流

氣流管理對數據中心運營十分重要。通過恰當的設計盡量減少熱空氣和冷空氣混合。然后,確保熱空氣被密封。我們發現一些很小的分析工具能帶來巨大的回報。比如,通過電腦流體力學(CFD)建立氣流模型可以幫助你快速的描繪和優化氣流,這樣你就不用對電腦房大規模重組。

控制設備的溫度

為了在持續節能的前提下保持設備***狀態,溫度管理、氣流管理以及設備管理盡量保持簡單,提高成本效益比。

將恒溫器設定提高到80華氏度(約等于26.7攝氏度)

讓數據中心節能最簡單的辦法就是提高溫度,根據專家的建議以及設備制造商的說明,數據中心可以在80華氏度以上安全的運行。

建立熱力模型

我們使用熱力模型來定位“熱點”,并能更好的理解氣流的運行。在數據中心設計階段,通過物理組合的方式讓設備溫度更加平均。在這之后,我可以移動計算機機房空調來減少熱點,并降低其周邊的溫度,最終減少空調必須運行的時間。

我們找到低成本的方式管理氣流

為了減少制冷成本,我們要防止機架后端排到熱管的熱空氣與機架前端環境的冷空氣混合。在我們那些巨大的數據中心里,我們使用了適當的導管和附屬設備。此外,在較小的數據中心中,我們采用適當簡單的散熱方式。請看實例:

使用空的面板(或者平坦材料)封閉機架上空閑的機位,防止熱空氣滲入冷空氣。

懸掛塑料窗簾(與在冰箱中使用的材質相似)防止冷空氣跑掉。

將高溫的部件或區域(如供電單元)用塑料窗簾密封起來 #p# 

3、調整恒溫器

讓數據中心保持在70華氏度(約等于21.1攝氏度)簡直是生活在童話中。事實上,所有的設備制造商都允許你將通道溫度提升到80華氏度或更高。如果讓你的數據中心效率更高(我們強烈推薦),讓它運行在更高的溫度就能在更多天里實現“免費制冷”(通過室外的自然空氣進行制冷)并節約更多的電能。

4、使用免費的制冷

通常冷水機組都會用在數據中心的制冷設備中,你可以發現這就是節省電能的巨大機會。利用“免費制冷”消除高溫就能避免使用冷水機組。這包括使用周邊低溫的空氣、蒸發器以及巨大的熱容設備。當然,有許多方法讓你使用“免費制冷”,水和空氣都被證明可以使用的資源。

用水替代冷水機組

電力在數據中心中最終會轉換成熱量。大部分數據中心使用冷水機組或空調進行降溫,這將占到日常用電中的30-70%。在Google數據中心,我們經常使用水這種高能效的方式來代替。

使用水來圍堵熱空氣以及對設備降溫

我們為機架設計并定制了制冷系統,我們叫它“熱屋”(Hot Huts),因為它用作容納從服務器排出的熱空氣的臨時房間,房間與數據中心其余地板是隔離的。每個熱屋的頂部都裝有風扇,將服務器排出的熱空氣吸入水冷器。冷卻后的空氣離開熱屋回到數據中心的環境中,服務器可以將這些冷空氣抽入幫助降溫,空氣完成了一個循環。

利用蒸發器制冷

蒸發是非常強大的工具。在我們人體上,當外界溫度高過身體的溫度時,蒸發可以幫助我們保持體溫。我們的冷卻塔和人體出汗的工作原理如出一轍。熱水從數據中心輸送到冷卻塔,水從上到下流過快速蒸發器,一部分水轉變成水蒸氣。風扇將這些水蒸氣向上推動,這一過程將帶走剩余的熱量,然后將變冷的水輸送回數據中心。

利用海水進行自然冷卻

蒸發水并不是唯一的免費冷卻方式。我們在芬蘭哈米納港的數據中心使用海水降溫,沒有使用冷卻裝置。數據中心地處芬蘭灣,氣候寒冷。冷卻系統將寒冷的海水輸送到數據中心,熱量通過交換器傳送給海水,海水最終流回海灣。通過這種方法,可以給我們提供全年的冷卻,而根本不需要任何冷卻裝置。

節約并循環用水

為了更節約用水,我們在兩個數據中心實現了100%循環用水,并在1/3的數據中心中通過收集雨水進行制冷。這個方法很簡單,替代用于冷卻的飲用水,而使用不能飲用的水源,通過清潔就可以用于冷卻了。

我們通過各種方式使用循環水。在道格拉斯數據中心我們利用城市廢水,在比利時數據中使用工業廢水,通過盛有干凈沙子的巨大的水槽過濾水中的微小粒子,水會變得干凈(盡管并不適合飲用)。不過,循環用水的方式并不總是很劃算,我們對找到合適的方法來支撐大部分循環用水還是持樂觀態度。 #p# 

5、優化電源布局

你可以通過減少電流轉換的次數來減少分布式電源帶來的電能損耗。你必須進行電流轉換,但要確保使用特定的轉換設備和分布式電源單元(PDU)。數據中心中分布式電源***的能量損失之一來自不間斷電源(UPS),所以選擇高效率的UPS十分重要。***,盡量讓高電壓接近電源,這可以減少能量損失。

定制高效的服務器

Google的服務器始終保持著高效率,它是我們數據中心的核心,并且經過了極端節能設計,通過最小化電能損失以及移除不必要的組件來實現。

優化電源路徑

一個典型的服務器最多將浪費1/3的電能,只有電能用于服務器的計算才能發揮真正的價值。服務器浪費的大部分電能是在電源部分,電源需要將標準的交流電轉換成低電壓的直流電。這一過程將損失大量電能,同時芯片也將完成進一步電源轉換工作。這種設計可以降低初始成本,但最終將在電力轉換的過程中花費大量的成本。

Google的服務器則不同。從2001年開始,我們一直在改進設計不斷提高效率。多年之后,我們的供電效率已經超過了“氣候保護計算倡議組織”的“金牌”標準(Climate Saver Computing Initiative,簡稱CSCI),事實上,我們與“氣候保護計算倡議組織”、Intel以及世界自然基金會(WWF)共同努力提升工業電源效率。同時,我們使用了更高效率的調壓模塊,確保更多的電能輸送到各個組件。我們在機架后放置電池直接向服務器供電,這樣就可以省去兩次交流/直流變換過程。我們估算,一臺服務器一年時間就可以節省500kWh,相當于典型的服務器能耗的25%。

定制自己的服務器 只保留必須的組件

對于硬件,我們只保留那些對我們的應用有幫助的部分。我們去掉那些外圍的部件和顯卡。我們還優化服務器和機架以適應最小功率的風扇,在保持服務器冷卻的前提下,盡量降低風扇的轉速。

我們鼓勵所有的供應商去除那些閑置的組件,這里是2007年發布的“能源比例”文檔。

關于Google數據中心的相關信息

 

 

圖:數據中心傳統的冷卻方式是通過高出地面的計算機機房空調(CRAC)制造冷空氣

 

[[104174]]

 

圖:Google上個月公布的數據中心的照片,在風道內有輸送冷水的水管,這是自2006年以來的第5次升級。

 

 

圖:Google對風冷和水冷方式進行了評估,水冷的熱容積和熱傳導性分別是風冷的4.1倍和23.8倍。

 

 

圖:Google模擬了100MW的IT負載,風冷所消耗的電能是水冷的4.875倍。

 

 

圖:Google展示了制冷設計專利

寫在***

“每一個Google員工都需要簽署一份保密協議,而這在Facebook根本不需要。”這是Facebook Prineville數據中心總經理Ken Patchett在接受Wired記者采訪是透露的。即便現在,Google對數據中心的保密等級并沒有因為公開一些無足輕重的照片而降低。除了圖片、描述籠統的文字和YouTube上有限的介紹影片,Google數據中心更多的秘密還需要時間來揭曉。

責任編輯:王程程 來源: Google
相關推薦

2012-11-28 10:17:39

Google數據中心PUE

2016-07-25 09:53:43

數據中心新式服務器設備

2012-10-31 09:20:45

數據中心制冷PUE

2015-06-04 09:38:51

數據中心PUE

2015-06-10 16:27:38

數據中心PUE

2022-12-27 14:29:21

數據中心PUE

2015-07-22 11:26:36

數據中心PUE

2011-01-06 16:36:05

云計算Google

2012-11-01 15:51:31

Google數據中心

2013-03-07 10:25:22

數據中心PUE能源效率

2012-03-27 09:40:30

數據中心PUEDCiE

2012-01-17 09:12:54

eBay數據中心PUE

2010-06-23 14:04:46

PUE數據中心能耗

2010-04-29 11:41:04

谷歌

2024-03-26 11:35:57

數據中心PUE液浸冷卻

2011-12-31 09:24:29

減少PUE數據中心

2017-11-20 15:44:50

數據中心PUE成本

2012-10-29 10:20:33

Google數據中心云計算

2010-07-20 15:59:49

PUE數據中心能效

2012-05-11 11:29:34

PUECloudBASE曙光
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 久久久久久久久久一区 | 亚洲一区二区在线免费观看 | 91久久夜色精品国产网站 | 中文字幕一区二区三区不卡在线 | 国产资源视频 | 免费高潮视频95在线观看网站 | 视频一区二区在线观看 | 日韩亚洲视频 | av中文字幕在线 | 国产精品资源在线 | www.久草.com | 精品网站999 | 午夜小电影| 欧美在线一区二区视频 | 在线免费观看黄色 | 一区二区精品 | 性高湖久久久久久久久 | 欧美一区视频 | 韩国久久 | 精品国产一区二区三区久久影院 | 日韩欧美网 | 国产片一区二区三区 | 91精品久久久久久久久中文字幕 | 日韩看片 | 美女久久| 欧美最猛黑人xxxⅹ 粉嫩一区二区三区四区公司1 | 欧美日韩视频在线 | av免费网址 | 免费一级黄色电影 | 久久久www成人免费精品 | 国产美女精品视频 | 九九热在线精品视频 | 九九热久久免费视频 | 国产精品不卡视频 | 久久男人| www.青青草| 国产亚洲精品美女久久久久久久久久 | 国产视频线观看永久免费 | 国产成人在线播放 | 国产第一亚洲 | 国产日韩欧美一区二区 |