數據中心網絡聚合:新策略和文化沖突
隨著存儲和數據的聚合,網絡人員必須以新的方式來考慮網絡連接。“您必須認識到您將會傳輸更多的流量,并且它對延遲更加敏感,而且對可用性也非常敏感,”Foskett說。“您必須保證網絡不會中斷。如果您失去了數據中心,那么人們將很難接受。如果你失去了存儲網絡,那么服務器也將崩潰。”
而且,在線技術研究社區Wikibon的首席研究貢獻者Stuart Miniman指出,如果網絡專業人員在他們的生產網絡中傳輸存儲流量,那么他們也要熟悉存儲專業人員的管理問題。
“存儲人員真正關心的是數據可用性,以及保證不會出現數據丟失,與之相反,網絡管理員真正關心的是保證連接、帶寬和回彈性的存在,”Miniman說。
當存儲人員和網絡人員一起工作時,這些不同的心態會造成文化沖突。現在他們必須找到共同點。
“我們聽到過有一些人從未聚合過,因為他們的網絡人員和SAN人員相互之間根本不交流,” 阿拉巴馬大學伯明翰分校的IT基礎架構服務執行主管Bob Cloud說道。“我們比較特別,因為我帶領的團隊中既有網絡人員,也有SAN人員。”
Cloud安排他的存儲和網絡團隊一起在數據中心實現基于FCoE的網絡聚合。作為使用Brocade的Ethernet和Fibre Channel產品的客戶,從去年九月份開始,Cloud就選擇嘗試使用用Brocade技術實現的FCoE。
他在一臺服務器機架上引入了兩臺冗余Brocade 8000頂級機架交換機。機架中的服務器是通過FCoE與交換機連接的。然后這兩臺8000交換機通過Fibre Channel連接將存儲流量發送到一臺Brocade DCX存儲控制交換機,并通過Ethernet上行鏈路將生產數據流量發送到上游Brocade FastIron SuperX交換機。一開始,存儲和網絡團隊不清楚誰應該負責管理Brocade 8000 FCoE交換機。
“我認為在交換機的擁有者和使用者是誰的問題上很自然會存在一些爭議,”Cloud說。“但是我們很快就解決了這個問題,因為在我們的數據中心內,網絡小組和SAN小組都是向我報告的。我要求他們解決這個問題,因為現在是試驗階段。試驗的目的就是要解決這些組織問題。”
為何要進行數據中心聚合?
圍繞數據中心聚合的宣傳,以及選擇FCoE還是iSCSI之間的斗爭會使人忽略核心的問題:最終所有的存儲都將通過生產環境的Ethernet網絡傳輸,而工程師必須為這個轉變做好準備。
聽供應商的介紹會讓人心煩意亂,因為他們講的每件事都是從自己的角度出發看問題。Cisco Systems和Brocade是FCoE的主要推動者。而同時,Dell告訴它的客戶在Ethernet上使用iSCSI是聚合發展方向。諸如Intel這樣的芯片供應商和諸如QLogic和Emulex這樣的網絡適配器供應商則都積極準備,以支持企業選擇的任意一種技術。
企業必須忽視供應商的宣傳,相反要考慮他們現有的基礎架構投入,以便決定選擇哪種技術。他們也必須理解網絡聚合可能是小規模地增長,不可能在短期內超過機架級的增長。
“一般當客戶來找我們時,他們已經選擇了一種聚合類型,而我們必須讓他們了解到實際上還有很多不同的選擇,并且它們不是互相排斥的,”大型系統集成商的數據中心實踐技術解決方案架構師Joe Onisick說道。
為什么需要數據中心網絡聚合?
隨著10Gigabit Ethernet (GbE)、服務器虛擬化和其它技術的廣泛應用,企業必須認真處理網絡聚合,以便控制資金和運營花費,并降低復雜性。
“如果您在一個機架上部署了很多服務器,特別是VMware機架,那么您可能需要為每臺服務器配備10條Gigabit Ethernet銅線連接和2條Fibre Channel連接,”位于田納西州的連鎖醫院Wellmont Health System的技術總監Darren Ramsey說道。“假如您的機架上有10臺服務器,那就需要120條電纜。這要耗費大量的人力,是非常不靈活的布線,并且會產生大量的熱量。同時,交換機端口也不便宜。”
在他的數據中心中,Ramsey最近通過使用Cisco的Nexus線在8個虛擬化Dell服務器機架中引進了網絡聚合。他將每臺服務器上的10個NICS和2個主線適配器(HBA)合并為2個QLogic聚合網絡適配器(CAN),從而為冗余的頂級機架Nexus 2232 Fabric Extenders提供2條10 GbE FCoE連接。全部共8對Nexus 2232 Fabric Extenders將上行流連接到2臺冗余的Nexus 5020交換機上。存儲和數據流量通過FCoE聚合到Nexus 5020上。這樣,存儲流量就可以返回到本地Fibre Channel,然后連接到存儲區網絡(SAN)中的一對Cisco MDS 9506 Director交換機上。生產數據流量會繼續連接上行到Catalyst 6509交換機。
“FCoE優化并減少了我們所需的Fibre Channel端口數,因為所有的主機現在都直接在Nexus上運行,”Ramsey說道。“我們不再需要從服務器直接連接到MDS上。同時它還減少了每個機架的復雜性。當我們在每臺服務器上使用2條10 Gigabit連接時,我們就能夠在該設備上運行更多的虛擬機。”
網絡聚合:是iSCSI還是FCoE?
FCoE占據了所有數據中心網絡聚合宣傳的重心,但是很多行業資深人員表示,iSCSI是另外一種可行的選擇。作為一種基于IP的存儲網絡協議,iSCSI可以很自然地運行在Ethernet網絡上。大多數使用iSCSI的企業目前都通過他們自己的獨立網絡來運行存儲協議的,因為聚合并不適合Gigabit Ethernet。但是隨著10 GbE交換機價格的下降,基于iSCSI的聚合也正變得越來越符合現實要求。
“可以肯定的是,轉到iSCSI比到FCoE更簡單一些,”存儲博主及IT咨詢師Stephen Foskett說。“有了iSCSI,您就不需要使用數據中心橋接、新NIC、新布線或者新交換機。”
最終企業的現有基礎架構和存儲需求將決定網絡聚合方法的選擇。
“如果客戶還不準備部署Fibre Channel,那么我很少會鼓勵他們采用FCoE,”Onisick說。“如果他們需要非常高的性能和非常低的塊數據吞吐量,那么FCoE是個好方法。如果他們能夠容忍稍微高一點的延遲,那么iSCSI會很好。而且,如果他們沒有塊數據方面的需求,那么NAS(網絡附加存儲)和NFS(網絡文件系統)是好的選擇。”
對于Ramsey,iSCSI不是一種可行的方法,因為Wellmont有高性能方面的需求。
“我們用過iSCSI,但它仍然是通過TCP運行的,而且您需要處理緩沖、流控制、開窗口或丟包和排列問題,所以我們不會使用iSCSI。FCoE的優點是:它不運行在3層協議上。它是原生2層協議幀中的Fibre Channel數據包封裝,而我們所做的就是在服務器與Nexus 2232和Nexus 5020之間傳輸這個數據包。”