成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

機房秘籍——數據中心“從一至十”

運維 服務器運維
數據中心是企業的業務系統與數據資源進行集中、集成、共享、分析的場地、工具、流程等的有機組合。以下十大數據中心數字“從一至十”,包含了許多數據中心管理知識,感興趣的朋友不妨慢慢看看。

數據中心一體化

應用安全:應用層認證、授權和審計;應用層加密(SSL)和集中PKI部署;應用層防火墻(HTTP/XML防火墻,SAML安全斷言標記語言);應用層內容安全(病毒、入侵等等)。

應用優化:應用負載均衡;基于硬件的應用緩存、壓縮和交換;應用協議優化(HTTP/TCP協議優化)。

一體化之應用安全

數據中心承載著用戶的核心業務和機密數據,同時為內部、外部、合作伙伴等客戶提供業務交互和數據交換,因此數據中心的安全必須與業務系統實現融合,并且能夠平滑的部署在網絡中。

相對一般獨立式安全設備而言,一體化的部署方式可以充分利用交換機的接口資源。同時,通過安全模塊的虛擬化技術,可以將同一塊物理業務板卡在邏輯上劃分為相互獨立的多個板卡,每個邏輯板卡擁有完全獨立的資源和策略,可以更充分的利用現有的IT資源,提供更加精確的實施控制策略。

通過一體化安全的部署方式,能夠使得數據中心的網絡真正成為一個健壯的網絡,滿足客戶對于網絡應用最苛刻的要求。

作為業務網絡的心臟,數據中心面臨著眾多的挑戰。擴展性、靈活性、高性能、可靠性和安全性,無一不是對數據中心的要求。尤其重要的一點是:在訪問請求急劇增長的時候,服務器仍要保證快速、穩定的傳送應用到客戶端,而其中最重要的一個技術保障就是負載均衡。

如果不在數據中心配置負載均衡,將會導致服務器負載不均,部分負載很重的機器仍然不斷的處理新來的業務請求,出現性能下降、響應時間變慢,甚至出現宕機。而其它的服務器可能長期處于輕載或空閑狀態,導致數據中心整體性能不高、資源利用率不高、整體投資得不到保證。

配置負載均衡后,將解決服務器任務調度和資源占用不均衡的狀態,提高性能的同時提高業務系統的健壯性。

一體化應用優化模塊是一款高性能負載均衡產品,該業務模塊創新性地實現了應用優化與網絡交換設備的完美融合。具有即插即用、擴展性強的特點,降低了用戶管理難度,減少了維護成本。

通過對各種應用進行識別和區分,并對服務器、防火墻進行健康檢測和性能檢測,采用自適應智能算法將各種應用訪問請求均衡分發至不同設備上。極大地提高了應用訪問速度,為數據中心提供了一個高性能、經濟高效的負載均衡解決方案。

#p#

數據中心2.0時代

對2.0時代的數據中心,業界雖然還沒有一個很明確的劃分界限和標準,但是從現有情況看,新一代數據中心與現有數據中心有著幾方面差異:首先,現有的數據中心基本上是基于比較低的標準進行建設的,這跟過去標準制定偏低有一定關系。其次,原來企業往往把數據中心建設工作看成是一個裝修工程,新一代數據中心則是把數據中心建設看成一個系統工程,而且主要是關于機電設施建設的系統工程。評判新建數據中心是否先進、優秀往往只看:它是不是有一個足夠強壯的供電系統、制冷系統以及動態分配系統;是否節能、環保?能否滿足IT高可用性、高連續性、高靈活性要求;在IT不斷飛速發展的今天,這些系統是不是具有一定的彈性和自動化能力。這是我們評判現有數據中心和新一代專業化數據中心的主要區別。

從這些差異中,我們可以窺見2.0時代數據中心的主要發展趨勢:

綠色環保

能耗是數據中心主要的運維成本,建設綠色數據中心,可以達到節省運維成本、提高數據中心容量、提高電源系統的可靠性以及可擴展的靈活性等效果。理想狀態下,通過虛擬化、刀片服務器、水冷方式等多種降耗方式,在滿足同等IT設備供電情況下,綠色數據中心可以降低空調能耗20-45%,同時增加IT設備容量達75%。

因此,綠色數據中心是新一代數據中心發展的重要方向之一。至于如何實現數據中心的綠色環保,從芯片、服務器、存儲到網絡設備廠商,甚至是軟件廠商,都在通過更優化的設計,力圖在提升產品性能的同時,推出更為節能的產品,以幫助企業數據中心實現節能降耗。

虛擬化和云計算

虛擬化是影響新一代數據中心發展的重要技術之一。虛擬化的優勢在于有效地提高了數據中心的利用效率,降低了投資成本,整合、優化了現有服務器的資源和性能,可以靈活、動態地滿足業務發展的需要。虛擬化讓數據中心所承載的基礎設施資源可以像水、像電一樣讓企業隨意取用。

另一個與虛擬化緊密相連的商業模式是云計算,云計算的核心就是虛擬化資源共享。因此,云計算對未來數據中心的發展模式影響非常大。

虛擬化、云計算作為一種新興的技術和商業模式,由于都要面臨顛覆傳統IT應用理念的挑戰,因此,還處于推廣階段。但兩者帶來的成本優勢和效率優勢卻是顯而易見的,而且,已經有不少企業開始勇嘗“虛擬化”這只螃蟹。

整合

整合是現有數據中心時代以及未來2.0時代數據中心領域都需關注的重要管理手段。企業可以通過重新設置服務器,提高服務器利用效率或者采用新型刀片服務器,提高數據中心單位密度利用效率等多種方式提高數據中心的利用效率。甚至,企業可以通過采用虛擬化技術以及關閉高能耗、低效率數據中心等手段整合數據中心資源。

實際上,已經有很多企業開始這么做了,比如,近期,某大型數據中心服務提供商就整合、精簡了不少數據中心。

模塊化

數據中心采用模塊化方式構建將更靈活,更適應未來數據中心發展的需要。我們完全沒有必要再將數據中心看成一個單一整體,我們可以將數據中心按應用、服務類型和資源耗費率將數據中心分成多個功能區域。各個功能區域在不影響其它區域運行的情況下,可以動態升級和維護。比如,按照密度可以分為高密度區和普通密度區,在高密度區,地板承重、冷卻系統以及電源供給配置都更高,可以滿足更高要求的數據中心服務需求。當然,還有很多其他分類方式,比如按照應用類型,可以將數據中心分為生產中心、測試中心、災備中心等等獨立區域。

靈活性

靈活性是新一代數據中心的重要指標之一,同時也是企業業務變更過程中的必然需求。企業在擴展、增加業務時,必然要對IT資源做出動態調整。業務增加時資源不能及時提供,或者業務減少時資源不能及時收回,都會對企業經營帶來不良影響。

這就是為什么很多數據中心服務提供商都會將靈活性作為新一代數據中心發展演進中的重要一環的原因。其中,HP把模塊構建、加快實施IT變更的速度寫進了HP對新一代數據中心的理解中;在IBM的路線圖中,動態為其全新企業級數據中心的最終階段,而“動態”的含義不外乎更靈活,只是表達方式不同而已。

綠色環保、虛擬化、整合、靈活性、模塊化以及自動化、云計算等等技術趨勢必將引領數據中心2.0時代的發展。

#p#

數據中心的“三網”困局

從傳統數據中心的網絡結構看,以太網(數據網)、存儲網和高性能計算網并存的“三網”式網絡架構占據著絕對主導的地位。

這種結構在業務相對單純的數據中心發展初期可以說是一種無可厚非的整合理念。但隨著企業業務的飛速發展,這種通過異構網絡整合而成的“三網”結構便成為了數據中心發展的瓶頸。這在一方面傳統數據中心的前端訪問接口通常采用以太網進行互聯而成,構成了數據網絡;另外,傳統數據中心后端的存儲更多的是采用NAS、FCSAN等;而服務器的并行計算則大多采用Infiniband和以太網。不同的網絡之間存在硬件和軟件異構、網絡接口與數據傳輸方式的不統一,使得過分復雜的異構網絡,嚴重阻礙了數據中心向更高效的方向發展。

另外,“三網”結構的數據中心隨著業務的持續發展、系統的更新升級、設備的不斷增多、能耗的大幅飚升,也面臨著資源分配與業務發展無法匹配的難題。管理三個獨立的網絡增加了數據中心日常運營的復雜性和成本,資源成本、人力成本的增長速度已經從很大程度上制約了傳統數據中心的業務發展。

數據中心網絡能否“三網合一”?

相信大家都聽說過運營商“三網合一”的概念:電信網、廣播電視網和計算機通信網的相互滲透、互相兼容、并逐步整合成為統一的信息通信網絡。其基本目的是為了實現網絡資源的共享,避免低水平的重復建設,形成適應性廣、容易維護、費用低的高速帶寬的多媒體基礎平臺。

我們可以看到,在“三網合一”的概念中,提高資源共享、降低運維復雜度和運維成本是其核心思想。那么,在同樣擁有三張網的數據中心里,這條路是否依然可行呢?

H3C研發副總裁尤學軍曾指出,融合本身會帶來網絡主要設備的簡化和布線的簡化。簡單來看,簡化網絡設備和布線便在一定程度上解放了網管、節約了運維成本。管理三張不同的網絡和管理一個網絡,對于數據中心的管理者來說,完全不是一個概念。

從技術角度來看,FCoE的出現,給人們打開了一條融合統一數據中心網絡的大門。FCoE源自希望將目前大規模應用的以太網和光纖通道相結合的想法。兩者的結合將給數據中心帶來減少設備數量、充分利用光纖通道、存儲集中化等好處。FCoE給大型企業數據中心帶來的好處則非常明顯,因為大型企業每年都投資數十億美元用于光纖通道存儲,因此,能夠在10Gbps的增強以太網中充分利用光纖通道將非常誘人。同事,在技術上實現數據中心網絡的融合統一的理論條件和技術條件也已經逐步的完善了起來。

數據中心網絡如何“一網打盡”

在H3C提出的數據中心架構理論中,數據中心網絡架構的發展主要分為三個階段:第一階段是三網分立的階段,第二階段是整合存儲網與以太網的“半融合”階段,第三階段是三張網高度融合統一的階段。由于FCoE的出現與技術演進,當前的數據中心網絡已經可以算是進入了半融合階段。

不過值得注意的是,國內數據中心用戶在FCoE方面的需求還不是非常大,國內的需求則主要體現在了一些外企在國內的分公司內。這從一方面來說可以看出全球市場對于數據中心網絡融合的需求已經成熟,而從另一方面也反映出國內企業在數據中心升級的問題上仍存在一些顧慮。

賽門鐵克在其發布的《2010數據中心研究報告》中提到了一點:數據的安全、備份與恢復,以及持續的數據保護是2010年最重要的計劃;51CTO記者通過了解也發現,在對數據中心升級的過程中,用戶通常對其核心數據能否安全遷移表示了極大的關注。在很多國內企業的決策者看來,業務發展造成的壓力遠沒有擔心數據遺失、損毀帶來的壓力更大,進而對部署尚處在發展階段的新技術充滿了顧慮。也正是源于這種顧慮,數據中心網絡融合在國內用戶看來,其概念意義也要遠大于其實際應用意義,這也使得FC網絡在國內數據中心網絡的應用依然處于主導地位。

不過,盡管大多數數據中心用戶的需求仍然趨于保守,還是有一部分用戶由于其業務壓力仍然會在新技術中尋求幫助。H3C網絡和安全產品線總工康亮提到了某電視臺的需求案例:電視臺有大量的非線編系統,其前端是用以太網,后面存儲全部是SAN的FC網。但是現在很多電視臺在建新的非線性編輯系統的時候基本上就想要一張網。某電視臺的總工已經提到了,他說我們現在要建一張網。一張網的概念就是要建融合架構。

不難看出,當存在大量的存儲需求,網絡系統越來越大的時候,就將面臨這種精簡布線的要求,也就是進行數據中心網絡融合的要求。那么,我們需要怎么做才能部署這種從傳統到融合的網絡轉換呢?

從FC到FCoE的部署往往不是一蹴而就的,通常的做法將是先在傳統架構的局部或者單獨搭建一個基于FCoE的區塊,將實驗性的新業務直接部署在新的區塊之中,隨著業務中心的轉移,逐步將舊有的業務也像新的數據中心遷移,做到保證業務連續性、安全性、穩定性。當然,這并不代表FC與新的融合網絡要保持永久的共存,所有這些的目標依然是將企業數據中心的三條網絡最終融合成為一條統一的數據網絡。

在部署數據中心融合網絡的問題上上,尤學軍認為如果說下一代網絡和傳統網絡混在一起組網的話,實際上是抹殺了下一代網絡的優勢。因為下一代網絡是無丟包、無柱塞、QOS保證、低延時等等,所以顯然這兩個網絡肯定是獨立的。就是傳統網絡是傳統網絡,新一代的網絡中心會單獨的組成一個符合新一代網絡要求的網。這個業務怎么從傳統網絡向新網絡遷移?這根據不同行業的客戶要求,也會有不同的部署策略。

#p#

數據中心節能四大挑戰

電信數據中心對綠色節能的需求很有代表性,它反映了目前所有數據中心的發展需求。相對來說,數據中心的設備采購、場地購買等成本屬于一次性的硬成本,而其中的設備所消耗的能源成本則是持續增加的變化成本,如果不能對數據中心的綠色節能進行系統、戰略層面的規劃,那么它將成為數據中心用戶心中永遠持續的痛楚。

一、數據中心綠色挑戰升級

一直以來,數據中心的存在為我們的工作和生活帶來了便利,但對數據中心擁有者而言,維持運行數據中心正常運行所需的龐大能源開支一直讓他們感到苦惱。

比如,按照一般標準來算,數據中心的能耗為100瓦/平方英尺,那么一般20000平方英尺的企業數據中心的峰值散熱需求量,相當于一棟200000平方英尺的商務大樓的需求量;年總能耗量則相當于一棟400000平方英尺商務辦公大樓的能耗。

在傳統的數據中心,客戶為了確保最大化的運行時間,不得不頻繁進行冗余電源的基礎設施建設,僅這項費用每年就高達數百萬美元。除了服務器、存儲、網絡等設備自身的耗電量在逐年增加外(這些IT設備的數量在每年因業務擴展而增加,同時這些設備的性能不斷提升也導致單機耗電量增加),為確保數據中心擁有適合的溫度,使得IT設備能夠正常運行,空調制冷等設備的耗電量也在以驚人速度上升--在沒有經過綠色節能改進的綠色中心里,空調制冷設備溫度要調得很低,以確保數據中心散熱最大的IT設備區域溫度下降到適宜數值,這樣的話,散熱量一般的區域溫度就會更低,白白浪費了電能。有數據顯示,在數據中心所耗費的電量中,將近50%的電能被用來空調制冷。

由此可見,對數據中心的綠色節能調整已經到了刻不容緩的時刻。第三方調研公司數據預測,如果不對數據中心進行節能調整,那么在未來5年內,超過90%的企業會因遭遇電源可用性限制而導致數據中心運行的中斷;會有25%的數據中心因此產生嚴重的業務中斷。

數據中心從業者注意到這個問題,并開始了積極的探索。例如數據中心越來越注意通過各種方式降低能源使用,涵蓋范圍可從他們部署的產品/系統到太陽能電池板、專用小型電廠等各種方法的“現場”發電。

二、IT設備的節能選擇

選擇節能的IT設備當屬我們改造綠色數據中心的首選。設備自身越節能,耗費的電能也就越少,這在服務器、存儲設備動輒成百上千臺的數據中心中十分重要。

目前芯片技術快速發展,如英特爾的處理器片可以實現更高的每瓦性能表現,這直接促使服務器整機的能耗表現要強于舊產品。同時,用戶要在此基礎上,考慮更具自身獨特節能特點的IT設備。

除選擇綠色節能的IT設備外,數據中心用戶還可以多利用虛擬化技術,將多臺物理服務器整合到一臺服務器上來,提高利用率,節約能源消耗。

三、整體環境能耗控制

為實現綠色數據中心,光有節能產品遠遠不夠。企業還需要通過各種辦法,能夠實時監控數據中心整體環境的能耗變化,并根據監控結果進行調整,降低能源消耗。

用戶可以考慮對數據中心環境溫度的智能控制。因為數據中心控制環境溫度的空調制冷設備將消耗數據中心大部分電能。

四、設計層面的調整

在實施了選擇節能設備和智能調整環境溫度后,絕大多數數據中心的綠色改造已經能有成效。但如果還想對數據中心進行更深一步的節能改進,那么用戶需要考慮在數據中心整體設計層面的調整。

比如,用戶可以借助專業的服務,從整體角度入手,對數據中心進行全面評估、在此基礎上進行規劃設計,調整現有數據中心或者重建。

由此我們可以看到,這個層面的做法屬于對數據中心的大調整,它大多數是用戶新建綠色數據中心時的選擇。

#p#

數據中心五唯獨評估

通過五個維度對數據中心進行全面細致的評估,能綜合分析出數據中心以往建設中存在的不足,為其優化改進指明了方向。

國內數據中心建設從銀行、電信、政府等行業起步,到目前為止,以數據中心為標志的大集中效果初步顯現,更多的行業和企業開始重視數據中心建設,數據中心進入新一輪投資建設期。在這次新一波數據中心建設高潮中,一方面是更多新的數據中心正在建設和籌劃建設,另一方面,災備中心的建設又成為數據中心建設之后的必然和迫切的要求。

在信息化建設走在最前列的電力、銀行、保險、證券行業的“十一五”規劃中,都重點強調了數據中心建設的重要性,明確了數據中心和災難備份中心的建設任務。此外,其他行業數據中心的建設也在迅速啟動。如煙草行業數據中心建設以及交通部水運數據中心的建設部署等。

積沙成塔的數據中心問題凸顯

隨著數據中心建設日益完善,國內企業或機構越來越認識到數據中心是一項復雜的綜合系統工程,原來積沙成塔的建設方式,所產生的問題正日益突出。所謂積沙成塔的建設方式,典型的表現就是缺乏總體規劃和有計劃的建設,企業被動地隨著系統不斷增加,服務器系統、存儲系統、網絡系統日益復雜,企業數據中心頻繁更換地點,對選址和基礎建設缺乏系統的考慮,同時運維保障、信息安全等措施又不完善,這使得很多數據中心可用性很差,風險巨大。但另一方面,數據中心投資規模較大,企業或機構往往受制于資源約束,只能在重點領域進行投入和改進。因此,對數據中心進行系統評估,應找出短板,有針對性地進行完善,這才是目前國內數據中心建設比較切實可行的方式。

五維度評測助力優化建設

筆者認為,應從五個維度對數據中心進行評估。這五個維度包括:基礎設施可用性、計算處理能力、運維保障能力、安全防護能力、績效能力。數據中心通過五個維度對自身進行全面細致的評估和問題識別,綜合分析以往建設中存在的不足,為數據中心后續的完善建設和優化改進指明方向。計世資訊數據中心能力評估五維模型如圖1所示。

 

管理人員通過上述模型中五個維度系統的評估,對數據中心的不足能夠一目了然。下面結合我們對比較有代表性的某單位所完成的評估結果,來分析我國目前數據中心存在的典型問題和不足。

從圖2中可以看出,該單位數據中心基礎設施建設剛剛超過60分,而在運維保障和安全防護方面甚至還達不到60分。該企業在進一步接受基礎設施的細評(包括可用性從建筑物、環境保持、供電安全、制冷能力、安防能力、通信保障、基礎設施運維保障7個方面)時結果如圖3。

從圖3中可以看到,導致該單位基礎設施得分較低的主要因素在于建筑物、供電、安全等方面。這與國內數據中心往往臨時設置在辦公寫字樓有關。如果根據國際標準,作為數據中心機房的建筑物在樓房承重、防震、防爆等方面都有嚴格指標要求,這些都遠遠高于辦公寫字樓,而國內,數據中心建筑物選擇普遍不過關是常見的問題之一。依據國際標準,數據中心供電安全應考慮供電的備份,如兩路供電,更高等級甚至要求雙變電所供電,這都是國內數據中心考慮欠缺的方面。

#p#

數據中心六大技術創新

當前,雖然琳瑯滿目的電子產品是消費者關注的對象,但那些企業和公司更加關注的是數據中心新技術的產生。這些新技術往往能夠解決數據中心的實際問題,可以使企業的業務更好的運行。以下是六項數據中心的創新技術,可以使數據中心得到更好的發展。

1、線路的簡化

HDMI(高清晰多媒體接口)在消費電子產品上的成功已經被證明,現在不管是藍光播放器還是機頂盒、高清電視機都使用了HDMI電纜,可以讓用戶得到更好的體驗。英特爾公司已經用同樣的原理研發出了光峰技術。這種光纖電纜首先將在筆記本和臺式機上使用,來提高傳輸速度并減少雜亂的線路狀況。而且,這種光纖電纜還會應用在數據中心的服務器和交換機上。

這種基于光峰技術的電纜,直徑大約為3.2毫米,和USB的電纜一樣的薄,但可以達到100英尺長而不會衰減信號。英特爾公司已經在計算機上設置了光峰接口并開始生產光峰電纜。英特爾還表示,包括惠普和戴爾在內的電腦公司,將會在2011年使用基于光峰技術的接口和電纜。

對于在數據中心上的應用,英特爾公司介紹了一些光峰技術的應用前景。上個世紀的90年代,IBM公司就推出了Escon(企業系統連接)線路,使用該線路在大型主機之間的傳輸速率能夠達到200M/秒,而使用基于光峰技術的線路,傳輸速率將能夠達到10G/秒。而且,光峰的線路組件還有著重量更輕,價格更便宜等優點。

之前英特爾曾表示,基于光峰技術的芯片內部還是普通的電子線路,對外輸出輸入口則采用光纖,所有器件都采用同樣半導體制造工藝。在芯片上采用光信號,一方面可以降低功耗,另外一方面可以整合各種各樣與外面連接的接口,使各種雜亂的線路得到簡化。

如果數據中心能夠使用這項技術,不僅僅能夠降低數據中心的能源消耗問題,還能大大簡化數據中心復雜的線路安裝過程,進而提高數據中心的運營和維護的效率。

2、深層液體冷卻和水平機架

液體冷卻在數據中心并不是一個新的概念,但綠色IT為它賦予了一個新的使命。首先,水平放置的機架有助于電纜線路的管理,是管理員能夠更加容易的接入設備。其次,水平機架周圍由液體所包圍,這是一種名叫稱為GreenDEF新的冷卻液,這種冷卻液的成分是礦物油,沒有毒性并且也不導電。采用這種冷卻方案的成本將低于傳統的冷卻技術。

使用深層液體冷卻技術,能迅速冷卻高密度服務器,提高辦公效率,比起氣冷式服務器,所耗費用低廉。而且它占用的空間不大,使用者不需要再為服務器搭建大型的冷卻裝備。

深層液體冷卻提供了一種比空氣更有效的熱快遞,該項技術消除了機架對能耗更多的需求,只需要對足夠的空間進行空氣調節,就能夠保持機房內溫度及能耗的需求。

HardcoreComputer的首席技術官ChadAttlesey說,“在我們的數據中心,這種冷卻的成本相比傳統的空氣冷卻或空調冷卻的成本要低60%以上。我們的另一個核心是冷卻劑與空氣比是1350倍,這個比例將最大限度地減少對空調和移動數據中心設備內空氣的需要。”

該項技術現在已經被一些服務器廠商所應用,例如IBM的刀片式服務器和英特爾最新的超級計算機。名為Ranger的超級計算機每臺服務器機架的功率僅僅只有30千瓦。

3、寬帶線路的粘結

企業可以在光纖和T1線路的建設上花費數以萬計美元,但一種新興的技術提出了一種成本更低的方案選擇。

蘑菇網絡公司提出一種名為松露寬帶粘結(TruffleBroadbandBonding)的網絡應用,該項技術可以快速將6根獨立的寬帶線路連接在一起,組合成一個巨大的寬帶管道,該寬帶管道的下載速度可以達到50M/秒。該項技術可以應用在DSL調制解調器,電纜調制解調器,T1線路等幾乎所有的寬帶連接。

這項技術有助于提高數據中心整體的數據傳輸效率,而且,如果該項技術出現了問題,并不會影響原有的線路,原有的線路仍然會正常運行。

肯尼亞的一個電視制片人SteveFinn使用了這一方案。他的公司要向8個非洲的國家轉播電視節目。以前他需要向寬帶服務提供商每月交納4000美元,而且傳輸的速度還不能保證,要取決于延時和流量。自從使用蘑菇網絡公司的新技術后,速度能夠達到以前的大約4倍,而且成本只相當于以前的一半。

思科公司也提供類似的寬帶捆綁技術,但成本更大,安裝也更為復雜,這意味著該項技術還沒得到廣泛的應用。

4、多個數據中心的連接

在一個大的企業,將多個數據中心連接在一起從表面上看起來是很困難的,有安全問題、以太網傳輸的問題以及多個地點的IT業務協同運作的問題等等需要去解決。

思科的覆蓋運輸虛擬化(OverlayTransportVirtualization)技術是一項可以解決以上問題的新技術。這是一項數據中心間的互連功能,意圖是要簡化在地理上分散的多個數據中心間通過擴展2層以太網LAN連接。基本上,OTV執行的是“MAC路由”。OTV會通過3層路由基礎設施對以太網進行封裝和隧道化,從而使多個分散的數據中心看起來就像是一個邏輯實體。OTV能夠讓IT管理人員跨數據中心遷移工作負載和虛擬機,而不必對其現有網絡進行重新設計或重新配置。

使用該項技術的用戶可以購買相應的軟件包括Nexus7000軟件,來連接在不同地方的數據中心,該OSC軟件的許可證大約為25000美元。

該項技術對于很多企業來說都是相當重要的,例如VMware的VMotion就需要長距離遷移數據中心的工作負載,用于資源分配或者災難備份。思科稱,每個站點只須執行4條指令便可在5分鐘內覆蓋已有的3層網絡。而其他的數據中心互聯技術,例如MPLS或暗光纖,則需要好幾個月的設計和規劃才行。

思科稱,OTV還包含有其他一些不錯的功能,例如多路徑、多鏈路和環路預防,它還能抑制未知的2層流量和生成樹包的泛濫。它能夠有效地限制諸如廣播風暴或生成樹循環等錯誤只在一個數據中心內發生,而不會擴散到其他數據中心去。

5、優先級存儲的劃分

內部通信尤其是電子郵件是每天都會被頻繁的使用,其中產生的大量數據往往是一些數據中心的難題。大量的電子郵件還消耗了大量的存儲空間。Messagemind是一種可以自動的將電子郵件整理歸檔的低成本系統,它的出現,有效的解決了這個難題,解放了存儲空間,并節省了數據中心的成本。

Messagemind可以分析公司的所有電子郵件,并跟蹤這些郵件的去向:哪些郵件被用戶閱讀,哪些郵件被刪除,哪些郵件被保存,然后按照這些郵件的去向來將它們劃分不同的優先級。

數據中心的管理員可以利用這些信息來劃分存儲這些電子郵件的區域,而不用將所有的電子郵件存儲在一個存儲系統里。這樣大大節約了成本。例如,那些低優先級的電子郵件就可以存儲在一個低成本的存儲系統里,而高優先級的電子郵件就可以存儲在擁有更高性能和更高成本的存儲系統里。

不過,即使是最好的電子郵件解決方案,還是需要員工來自己管理他們的信息的。Messagemind并不能代替員工來管理他們的個人電子郵件,但以Messagemind為代表的優先級方案可以更為有效的解決數據中心的存儲問題。不單單是在電子郵件的使用上,在數據的存儲上,都可以劃分優先級來分配不同的存儲區域,數據中心的管理員可以通過圖表的形式來判斷出數據的優先級,來制定相應的方案,從而為數據中心節約成本。

6、虛擬化效率的提高

在過去的10年里,虛擬化一直是一個時髦的詞。虛擬化通常是指從一個服務器或者存儲中分配多個操作系統。

AppSense是一個關于用戶帳戶的虛擬化軟件。它從操作系統的用戶配置文件中提取用戶信息并和操作系統分隔開來。這就意味著,如果操作系統中的應用程序發生改變,用戶的信息仍然可用。而如果用戶的設置發生損壞或者丟失,管理員可以回復到最近的一個配置。

LandonWinburn德克薩斯州大學的一位軟件專家,使用AppSense3000為他的學生配置用戶賬戶設置。Winburn說,在管理用戶設置的過程中,每周都會有40到60個學生使用賬戶回復設置,每天都會有發生5到10起因為誤操作而引起的系統崩潰的案例。

在以前,如果用戶的配置文件發生損壞,那么唯一的辦法就是刪除配置文件,這樣,用戶智能從頭開始配置他們的應用程序。但是,現在,隨著AppSense的出現,恢復這些設置的速度是在瞬間的,通過這些虛擬賬戶,每臺服務器可虛擬化的數量將大大增加并更加容易地管理,這大大提高了虛擬化的效率。例如上文中的德克薩斯州大學,該大學嘗試把每臺服務器中的虛擬賬戶由40個增加到了80個,在管理上并沒有帶來任何負擔。

#p#

數據中心瘦身七大秘籍

隨著一些數據中心的規模不斷加大,隨之而來的問題和壓力也越來越多:空間緊張導致升級擴展難度大,電耗和散熱,管理維護困難,總體成本費用增高等等,其中不乏是數據中心規模過大帶來的“肥胖癥”。

于是,業界也開始考慮給數據中心“瘦身”,特別是在經濟環境還比較復雜的今天,很多IT經理都認為“數據中心的規模越小越好”。其手段主要是虛擬化、高密度多功能的硬件設備、新能源以及模塊化的設計技術等,通過這些手段不僅可以縮小數據中心的規模,讓機房變得更加緊湊和高效,而且可以借此節省電費、減少硬件資產、降低機房空間租用成本以及維護管理費用。

在數據中心“瘦身”方面,筆者總結了以下七個方法:

1.將分散各地的數據中心/機房集中起來。

如果你有很多個數據中心分散在各地,最好是把它們進行整合,縮減為少數幾個,將計算資源集中到少數規模大且高效的中樞數據中心,并關閉其他本地數據中心,這樣就可以在這幾個數據中心去使用許多新的技術,在成本和管理上都省事很多。

看IT領域的巨人們自身是怎么做的吧!如英特爾2008年在全球17個地方擁有116個數據中心、77000臺服務器,每天的網絡吞吐量達到173TB,到2014年,將"瘦身"到只有8個——3個在亞洲、3個在歐洲、2個在美國,這8個數據中心將承擔著龐大的英特爾全球芯片設計、辦公、工廠以及企業應用等方方面面的任務。更早一點,2007年,IBM公司以30臺Systemz大型主機整合了3900臺分布式Unix和X86服務器,通過能耗、軟件許可證、管理人員方面的節省每年可以減少2.5億美元的支出。

IBM認為新一代數據中心的特征是集中管理、服務導向、虛擬共享、動態靈活

2.部署虛擬化。

虛擬化是數據中心縮身過程中的必修課,通過把服務器的各種底層部件轉化為可以靈活分配的計算資源,虛擬化技術可以把多臺服務器上的操作系統和應用系統一并遷移到一臺服務器上,從而可以極大地提高設備的利用率,顯著地節省數據中心的空間。

想想看,原來你有100臺服務器,通過虛擬化整合到了10臺,也就意味著你可以節省掉90臺,這90臺服務器所消耗的電力成本、散熱成本、管理維護成本都省出來了。當然,對于那10臺服務器,建議根據業務需求選擇性能、容量、穩定性都更好的高端服務器,如4路以上的X86服務器、UNIX小型機甚至象IBM那樣直接遷移到大型主機上去。

更重要的是,虛擬化改變了IT運行的方式,跟傳統的物理模式相比,IT系統的效率會大大提高。當然,今天你不能僅僅盯著服務器的虛擬化,還要考慮存儲虛擬化、桌面虛擬化、應用虛擬化等等。

 

虛擬化是數據中心縮身過程中的必修課

3.使用高密度硬件設備。

在選購服務器、存儲及其他物理設備時,要比較不同廠家產品之間的規格大小,以更充分地利用你的機房空間,比如刀片服務器就比一般的機架服務器更省空間。對于新設計的數據中心,要考慮進行可擴展的模塊化設計。

在國內,你還得考慮一些實際問題:每機柜的供電條件。在很多機房,特別是IDC機房,每機柜的電力都限制在10安培左右,這也意味著你只能在一個42U高的機柜里塞進去一個刀片服務器機箱,和1U服務器相比也并不劃算,這時考慮一下“雙胞胎”超密度服務器或者象IBMiDataPlex那樣的“類刀片”產品,也許你會發現后者更加切合實際。PPS.tv是IBMiDataPlex在中國的第一個客戶,PPS總裁徐偉峰曾這樣算了一筆帳,“由于國內機房每機柜限電12安培,這意味著每機架只能放置12-15臺1U或2U的機架服務器,或者1個刀片服務器機箱,但使用iDataPlex,可以在同樣的電力條件下放入26臺服務器!”

4.使用多功能集成性的技術。

盡量使用那些可以完成多個任務功能的設備,比如使用同時具備防火墻功能的路由器,比分開購買要好。又比如刀片服務器把計算、存儲、網絡、供電、散熱等單元集成在了一個機箱里面,如果再配上虛擬化方案,可以實現極高的整合密度。

IT管理人員應該關注“每平方米空間所承載的計算能力”這樣一個指標,而不只是一味地為了節省空間去做,因為隨著公司業務的發展,計算規模和存儲容量也在增加,因此,小體積、高密度、多功能、高性能的IT設備受到了大家的重視。當然,單個這類高密度設備的功耗量肯定要高一些,甚至需要對機房/機柜的供電和散熱系統重新改造,但從每瓦特性能、每平方米性能這些指標來看,高密度計算還是很劃算的。

刀片式IT設備正在改變數據中心的面貌

5.盡量簡化。

在數據中心里盡量減少線纜、夾具等物品,能整合的就進行整合。甚至SUN、Rackble、IBM、HP等將整個數據中心都簡化、濃縮成了一個個的“集裝箱”。

比如,惠普新推出的PerformanceOptimizedDatacenter(簡稱POD),能夠戲劇性地將5000平方英尺的大型數據中心“濃縮”到一個只有320平方英尺的集裝箱中去,SUN公司的Blackbox也是類似這樣的產品。目前,HP的這些集裝箱采用了模塊化的設計,可以容納不同廠商標準的刀片服務器,在美國休斯敦安裝配置好,然后運送到全球各地去。平均每裝配這樣一個集裝箱只需要6個星期,一個空的POD大約要價140萬美元,帶有機架和散熱系統,但不包含計算存儲設備,這比新建一個數據中心要便宜得多。據了解,其PUE值為1.25,跟那些PUE值大于2的傳統數據中心相比,電能效率也高出不少。這種POD一般可以放在倉庫里或者閑置的購物中心當中。

6.管理和規整好你的設備。

對于那些用不著的多余硬件,可以考慮轉賣掉,或者讓廠商回收回去。對于未來可能會用到,或者應急之需的物品,可以找一個專門區域進行存放,而不要堆放在數據中心的重要區域里。這些考驗的是你的管理水平,對于大型數據中心,需要動用專門的軟件來實現智能管理。

7.試試空氣冷卻,減少空調設備

據統計,在傳統數據中心里,機房空間占用成本的比重在7-10%之間,而60%的數據中心成本都來源于電力和制冷部分,包括空調、散熱器、發電機、UPS、PDU等等。因此,除了采用虛擬化、刀片服務器等手段外,在空調上做做文章可能效果更佳。

比如英特爾在整合自身數據中心過程中就動用了“空氣節能器”技術,來替代耗電量大的空調。現在一般的數據中心都依靠空調來降溫,但實際上一天24小時并不需要都開著空調,因此,通過良好的設計,可以直接使用室外的冷空氣(如晚上、冬天)來冷卻,由系統根據設定的溫度范圍進行調節空調的開或關,這樣你可以減少空調的數量。

英特爾的“空氣節能器”示意圖

對于想進行數據中心縮身的用戶來說,規劃是非常非常的重要,因為這時已經沒有多余的空間給你,在更加緊湊的機房里,你必須讓每一塊都能夠恰到好處的發揮作用,所有規劃的過程必須詳細而謹慎,因此,你要考慮的可能遠遠不只上述七個方面。

#p#

數據中心節能減排八招應對

節能降耗、減少碳排放,無論是對于社會還是企業用戶都有很重要的經濟價值和環保意義。在IT環境中,特別是對于擁有大量服務器存儲設備的數據中心而言,節能減排的話題也受到越來越多CIO們的重視。面對2008年,如果您想在節能減排方面做一些事情,希望下面8個方法對您有所參考。這些方法中有些是技術層面的,有些則是管理流程層面的。

1)虛擬化

相信很多用戶的服務器應用模式仍然是傳統的“一個應用占用一臺服務器”。實際上,你可以通過服務器虛擬化技術,在一臺服務器上安全地運行多個應用。而且,虛擬化可以把服務器的平均利用率從15-20%提高到80-90%,也就是說,你可以用更少的服務器來完成更多的工作,而耗電量不會增加。

2)關閉不用的服務器

最簡單的節能辦法莫過于關閉掉那些不用的電源。當然,對于那些7*24小時不停運轉的業務來說,這個想法實在有些幼稚。但實際上,有一些應用并不是全天候的運轉。因此,對于這些應用,只有在真正需要的時候,才把服務器和磁盤設備打開。當然,這要求你得有一套精準的運作管理流程,來保證當業務需求增加時,能夠及時提供IT服務。

3)電源節能技術

對于大多數筆記本電腦用戶而言,電源節能技術已經是很稀松平常的事了。對于服務器用戶來說,也可以根據業務需求、負載變化來提高或降低服務器的運行速度,從而達到節能的目的。比如,一些最新的CPU就能夠根據負載變化來調節運行主頻。用戶也可以通過管理軟件來設置這一功能。另外,在產品選購時,應該選擇那種具備最高電源效率而且可以按需調配的服務器。要知道,有些服務器雖然便宜,但其電源效率不怎么樣,在電源的交直流轉換過程中容易損失掉一些效率,而且產生大量的熱能。

4)應用優化

第四種方法是對你的數據中心里的應用進行優化。那些體積過于寵大的軟件、效率不高的軟件、以及那些對業務價值沒什么貢獻的軟件,都有進行修整、優化的空間,甚至可以直接卸載掉,從而減少服務器的負載。

5)加強設備維護

嚴格的設備維護管理是一種更加基礎但也是非常有效的辦法。數據中心經理可以通過精細的維護來提升設備的效率,確保所有設備都運行在最高效率水平上,同時修改各類IT設備的布局和配置,從而達到減少散熱要求的目的。這些看似平常的做法將能夠提升數據中心的總體效率,減少碳排放量。

6)采用更高密度的多核CPU

由于功耗要求更低,使用全新的多核CPU能夠帶來顯著的功效。試想一下,如果在一個芯片上集成8個、16個、24個甚至更多的處理器內核,服務器的每單位面積處理性能會大大提升,而用電量會大大減少。其實,在過去幾年里,技術進步已經為數據中心帶來了更好的每瓦特性能和每平方英尺性能。比如,2002年為了實現3.7Tflops的性能,需要25個機柜、512臺服務器,占地1000平方英尺,用電128KW;而到2007年,同樣是實現3.7Tflops的性能,僅需要一個機柜、53個刀片,占地僅40平方英尺,能耗只需21KW。

7)關注TCO和電費成本

這一點對于國內用戶來說尤其重要,有些用戶過于關注服務器設備的初期采購成本,而忽視了后期運營維護過程中的電力成本、管理成本。也許一臺服務器運行三年所需的電費就可能超過你當初的采購成本。對于大型數據中心來說,電費更是成為相當大的負擔,比如,上海超算中心一年的電費成本就超過400萬元,中石油東方地球物理公司數據中心的電費更是超過一千多萬元。但現實情況是,有些用戶仍將機房用電仍然算作普通的辦公費用,而不是獨立的運營成本,這也限制了部分CIO對節能減排的積極性。因此,2008年,你最好算算你的服務器用了多少電費。

8)創新IT應用

IT的創新應用不僅僅體現了采用了新的多核服務器或是進行了虛擬化部署,也體現在其他方面。比如,一家企業通過使用數字可尋址調光接口(DALI),輔以精準的燈光控制軟件,能夠將電力消耗減少多達40%;也有的企業在辦公樓里使用可編程的自動調溫器,按照上下班的時間安排自動控制調節室內溫度、電壓和濕度等指標。相信在未來的幾年里,隨著更多智能化、節能化建筑的出現,IT在這方面的應用會得到迅速發展,這無論是對于節約成本還是減少碳排放都有相當好處。

隨著能源問題、環境問題的日趨嚴峻化,我們每個人都應該想想:從技術上、管理上我們能夠做點什么?這無論是從企業公民責任來講,還是從降低成本的角度來看,都有重要的現實意義。2008年,相信這一話題會比以往更熱。

#p#

數據中心外包九大要素

對于企業而言,一個數據中心外包項目短則3年,長則10年,甚至更長時間。為了保證數據中心外包項目的成功,企業CIO需要在考察數據中心本身安全的同時,考察數據中心外包服務提供商是否具有專業的服務團隊、完善的服務能力和規范的運營服務管理體系,是否具有成功的服務經驗,最后才是服務價格,只有這樣才能使數據中心外包項目達到降低成本,獲得高質量、高可用的按需服務能力,保障業務持續、高效、安全運行的目的。

數據中心本身的安全

第三方數據中心建筑物本身的物理安全和周邊環境的安全是企業CIO選擇數據中心外包時優先考慮的第一要素。其中,考察的要素包括建筑物的結構設計是否合理,抗震、耐火、防水、防雷、防磁等是否達標,周邊環境如何,是否存在地震、海嘯、臺風等重大風險等,是否具有相應的應對措施。

服務體系和規范

服務體系和服務規范是否健全也是重要考量因素之一,目前,檢驗服務體系是否完善的標準包括ISO27001信息安全服務體系、ISO20000IT服務管理體系、ISO9001質量管理體系,BS25999業務連續管理體系等。這些標準分別從數據中心的安全性、可靠性、IT服務交付能力、IT服務滿意度以及服務流程等方面對IT服務提供商進行了全方位考察。

服務經驗

數據中心外包服務是一項專業性很強的服務,涉及諸多系統、流程和部門,因此要求數據中心服務提供商具有豐富的數據中心運營服務經驗。

服務團隊

服務團隊的能力是數據中心外包項目能否成功運行的關鍵,數據中心外包服務過程中不僅需要經驗豐富、技術嫻熟的技術團隊,同樣需要全面、專業的運維服務團隊。

財務穩定性

沒有企業CIO希望自己所選擇的數據中心外包服務提供商突然停業或陷入財務危機。因此,良好的財務狀況是能讓數據中心外包項目持續運營的保障。在決定將企業IT系統遷入第三方數據中心之前,應先審核服務提供商的財務狀況。

專業服務能力

從萬國數據服務有限公司(GDS)9年來的數據中心建設和運營管理經驗來看,數據中心服務提供商的專業服務能力不是一朝一夕就能形成的,必須經過長時間的服務經驗積累和服務體系完善才能逐步建立。

綠色環保

數據中心運營的成本中電費是非常高的,對于這一開支,不管數據中心是否外包,都會由企業自己買單。因此,需要重點考察第三方數據中心的規劃、設計、運營是否合理,耗電量是否比較低,是否采用虛擬化、水冷等綠色節能措施。

高可用性

外包后,企業的服務器、關鍵系統和應用數據都位于第三方的數據中心內,因此,選擇高可用性的數據中心非常重要,否則一旦產生系統錯誤或遇到突發災難導致系統中斷,后果不堪設想。從這個角度而言,第三方數據中心應當配備冗余的電力供給、制冷系統以及網絡系統。

服務價格

聰明的CIO會從服務的可用性,服務經驗、服務質量、服務能力、服務水平、服務體系等多方面來衡量價格是否合理,并最終有所取舍。

#p#

數據中心容易犯得十個管理錯誤

對那些認為自己的數據中心足夠完美的用戶來說,應該從本文中獲得啟迪。雖然你可能無法實現期望中的盡善盡美,但你可以改變數據中心管理的方法。管理一個龐大的計算系統并不是件容易的任務,但是通過更好的管理和適宜的規劃能減少工作的繁瑣和麻煩。以下是數據中心管理中應該避免的十大錯誤。

1.虛擬化部署不足

如果你管理的數據中心還沒有部署虛擬化來節約金錢,那么顯然你是落伍了。虛擬化技術能幫助你節約寸土寸金的機架空間。虛擬化還可以為那些不存在系統節約額外的制冷,能耗和服務費用。

2.沒有使用云計算

與虛擬化技術類似,云計算要求你掌握公司或者用戶的實際能力。亞馬遜在線能提供適合隨需能力需求的靈活性和擴展性。舉例來說,使用Canonical公司的UbuntuLinuxServerEdition,你可以創建自己的私有云或者動態調整亞馬遜在線的彈性計算云。

3.設計缺陷

數據中心的設計缺陷很難被避免,但是重新設計要比重頭再建要便宜的多。一座有20年歷史的數據中心看起來依然光鮮,但是已經不再符合當下的環保標準。你必須重新設計數據中心的電力設備來滿足刀片系統的需求。你可能還得重新更換老化的制冷系統等,因為當下的服務器比他們上一代產品的制冷環境要求更高,效率也更高。

4.擴展性局限

“640K的隨機存儲器對于任何人來說都足夠了”我們無數次聽到據說是比爾.蓋茨這樣的言論,那大概是1981年吧?無論比爾.蓋茨是否說過這樣的話對今天而言都已經不再重要了。我們需要吸取的教訓是當你構建數據中心時,要將攝氏溫度調整為華氏溫度:這樣你考慮的數量就翻倍了。使用從攝氏到華氏溫度的公式能為你的數據中心預留將來升級的空間。一座占地面積2000平方英尺的數據中心不夠嗎?應該有4032平方英尺取而代之。規劃不足毫無疑問會浪費占地空間或者其他能力。

5.安全性放松

進入任何數據中心,你都會看到讀卡器,視網膜掃描儀,循環鎖,稱重儀或者其他高科技安全系統。但是與那些嚴密的安全措施相比,你會發現一些關鍵的安全訪問入口被繞過了。物理安全沒有岔路可走。如果存在這種岔路,你的安全性就會大打折扣。

6.服務器管理偶發性

為了管理你的服務器系統,你需要物理訪問或者遠程進行管理嗎?時下每臺服務器系統在維護上通常都是用遠程管理系統來完成。使用和激活亦是如此。對于每個進入數據中心的人來說,你可以會遭遇系統故障。錯誤的系統標識,錯誤的定位,誤讀的系統名等等。如果你配置物理系統時可以使用遠程訪問控制臺就好的多。

7.整合遭遇問題

開展數據中心管理業務就是要最大化的減少機架或者機房內系統的數量。服務器整合就是實現這個結果的解決方案.2:1或者3:1的整合比例都是無法接受的。5%到20%利用率范圍運作的物理系統可以輕松的將5臺,6臺或者更多的服務器整合到一臺系統上。沒有得到充分利用的系統會浪費機架空間,能耗和服務支持的費用。

8.過度冷卻或者不夠冷卻的空間

你的數據中心溫度是多少?你應該檢查一下。如果你的數據中心溫度在70華氏度以下,你就是在浪費金錢。服務器需要的空氣流動超過他們對冷卻溫度本身的需求。在你的數據中心巡視一番。如果你感覺舒適,那么服務器感覺也比較舒適。沒必要非得讓你的數據中心員工感覺過冷或者過熱。

9.動力不足的設備

關于數據中心有空間可用卻動力不足的話題你聽說過多少次了?動力不足的設備是規劃不足的犧牲品。虛擬化會對此有所幫助。服務器整合也能起到一定作用。但是未充分利用的設備在短期內是比較突出的問題。

10.機架過于擁擠

如果你曾經嘗試將服務器把機架擠的滿滿當當,你可能奢望自己成為萬能的。你可能認為在系統之間留有間隙會導致低效和浪費,但是那些從事從系統中插入或者拔出組件工作的人可能要感謝你了。匱乏的規劃會導致系統過度擁擠,這是沒必要的。虛擬化,整合和更加高效的安排會緩解這個問題。服務器偶然的電源松懈導致的斷電會讓你明白在系統之間留一些間隙是有好處的。

【編輯推薦】

  1. Google到底有多少個數據中心?圖文詳解
  2. 看這些數據中心錯誤有多蠢!
  3. 搬次家扒層皮 老外談數據中心搬遷問題(圖)
責任編輯:景琦 來源: 機房360
相關推薦

2009-12-31 16:34:09

數據中心之變 機房

2016-11-08 15:16:20

2017-06-13 13:40:56

數據中心性能機房

2018-07-18 10:07:51

數據中心機房維護

2017-11-22 10:44:14

數據中心機房UPS

2015-06-16 15:25:34

數據中心數據中心優化

2020-11-19 15:25:03

數據中心機房網絡

2022-11-25 10:19:30

數據中心

2011-07-12 10:59:17

數據中心機房

2010-11-23 14:09:39

數據中心托管

2013-05-10 10:10:29

數據中心機房風冷卻

2023-12-29 14:55:32

數據中心機房設備

2015-06-25 15:59:54

數據中心機柜

2013-02-27 13:49:10

數據中心機房綜合布線施工數據中心機房建設

2017-10-18 09:30:37

數據中心機房冷卻

2016-07-15 17:02:20

無錫云計算大型數據

2012-02-20 10:16:39

數據中心機房布線

2017-03-13 10:34:21

2016-01-26 10:15:34

數據中心

2024-01-10 15:40:28

點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 亚洲精品国产一区 | 九九伊人sl水蜜桃色推荐 | 亚洲永久精品国产 | 日韩中文字幕在线视频 | 狠狠操天天操 | 亚洲黄色视屏 | 天天躁日日躁狠狠躁白人 | 看a级黄色毛片 | 亚洲免费婷婷 | 色在线视频网站 | 一区二区三区视频在线免费观看 | 欧美精品一区二区三区四区 | 人人看人人爽 | 99精品欧美一区二区三区 | 成人一区二区三区在线观看 | 欧美成人猛片aaaaaaa | 欧美日韩精品一区二区三区四区 | 成年人网站在线观看视频 | 久久激情网 | 欧美一区二区久久 | 一级a性色生活片久久毛片波多野 | 日韩欧美一区二区在线播放 | 欧美激情网站 | www.一区二区三区 | 99久久免费精品视频 | 日韩电影在线一区 | 成人午夜电影网 | 亚洲精品小视频在线观看 | 黄毛片| 欧美成人精品一区二区男人看 | 久久骚 | 国产精品一区二区久久 | 欧美精品一区二区三区在线播放 | 久久久tv | 美女国产一区 | 日本不卡一区二区三区在线观看 | 欧美日韩在线综合 | 国产免费一区二区三区 | h网站在线观看 | 亚洲网站观看 | 波多野结衣亚洲 |