發布時間: 2017-06-16 14:39:43
現代數據中心的不斷發展演變導致了其能源消耗需求的不斷增加,這反過來又需要更好的冷卻技術方案。而數據中心運營商們對于冷卻成本的控制也是至關重要的,故而他們需要選擇恰當的方法來平衡冷卻效率和冷卻支出。今天,騰科小編將為大家介紹關于現代數據中心冷卻技術的合理的關注點,指出潛在的解決方案,并推薦新的技術——液浸冷卻、行內、機架內空氣冷卻以及氣流建模和密封遏制。
當前市場上已經有了一系列新的冷卻技術和方案了,但是,無論是密封遏制、液體浸泡或絕熱,選擇一款適合您企業數據中心特定業務需求的冷卻技術解決方案才是最有必要的。
當選擇冷卻技術解決方案時花時間進行冷靜的思考
數據中心冷卻散熱可能不是會IT專業人員們廣泛的討論興趣的一個話題。但是,如果處理不當的話,其可能造成成本代價昂貴的錯誤。而如果不采取必要的預防措施或者如果太長時間依賴過時的冷卻技術的話或將造成您數據中心的服務器能耗的顯著增加。而由于能源需求的增加,能源使用量也相應顯著增加,數據中心冷卻的重要性也在不斷提升。
選擇正確的冷卻技術和方案并非易事,并且其需要在申請相關的資金預算之前進行徹底的審查和規劃。無論是對舊設備的翻新改造還是完全的升級,數據中心管理人員需要能夠隨著時間的推移看到投資回報率,但只有當他們花時間來檢查所有潛在的備選方案時才能看到。
數據中心的現代冷卻方法
冷卻的關鍵性,再加上當今高密度的機柜所產生的高熱水平,已經擴展了傳統常規數據中心冷卻的限制。數據中心的冷卻可以并且應該使用最新的技術和方案來得到增強。一些最新和最有效的技術方案是非常先進的,而其他一些技術方案仍然存在其固有的缺陷。數據中心管理人員需要了解所有這些方法,以便他們可以為他們的數據中心選擇最佳的冷卻技術方案。
老的密封遏制的方法仍然有效
密封遏制(containment)的方法其實是熱通道/冷通道概念的延伸。機架行的兩端被門或塑料簾幕堵住以進一步防止空氣混合。如果門封閉了熱通道,其被稱為熱通道密封。如果其包圍封閉了冷通道,那就是冷通道密封。如果只有熱通道或冷通道的端部被阻塞,那么部分的密封遏制。如果屏障安裝在過道上或從機柜頂部到天花板,這將構成完全密封遏制。據稱,部分密封遏制的效率可達完全密封遏制效率的80%,這兩者都有助于提高新建和現有數據中心的制冷和能源效率。在現有的數據中心操作空間,主要的關注問題是防火。完全密封遏制可以防止水份的分散蒸發或抑制氣體的流通,這是相當危險且非法的。解決這一問題有三種方案,在熱通道和冷通道中安裝噴淋頭或惰性氣體噴頭;可在探測到煙霧時降下豎立屏障或采用部分的密封遏制。每種類型的方案都各有其利弊。由于冷卻通常是除計算設備本身之外較大的電力資源消耗者,因此,數據中心操作運營人員應考慮某種形式的密封遏制。
熱輪和絕熱冷卻提高效率的冷卻
熱輪(heat wheel)是大型的,緩慢旋轉的裝置,具有多個空氣室。一半的輪子在戶外,當輪子轉動時室外的冷空氣被輸送到數據中心內部。而內部的熱空氣則被輸送到戶外。在其旋轉期間這些復雜的輪子作為熱交換器,并帶來少量的外部空氣。輪子轉動所需的能量很小,并且其在大多數氣候條件下都是有效的。在所有的“免費冷卻”形式中熱輪可能位列能效清單列表的頂部。
絕熱冷卻( Adiabatic cooling)是蒸發冷卻的一種奇特方式。將水從液體變為蒸汽以消耗熱量,因此如果我們在溫暖、干燥的氣候下在室外往室中噴水,水會快速蒸發,然后冷卻。如果我們同時通過在室內傳輸熱空氣,空氣將被冷卻。因此,絕熱冷卻是一種節能的散熱方式,并且在該過程中使用的水量通常小于冷卻塔所消耗的水量。
熱源冷卻系統
雖然它們在許多方面有所不同,但是在熱源冷卻系統類別中的方法卻具有類似的功能。行級冷卻(In-Row Cooling,IRC)基本上將計算機房的空調(CRAC)從房間周邊移動到了機柜行中。冷卻單元設計為類似于機柜,并且放置在機柜之間或機柜行的端部。在這里,他們將空氣直接輸送到機柜前面的冷通道。同樣重要的是IRC將從熱通道排出的空氣直接排入每個冷卻單元的后部,留下很少的熱空氣重新循環。即使存在開放路徑,例如在部分密封遏制設計中。由于空氣路徑短,與周邊單元相比,所需的風扇功率低。一些IRC包括控制空氣流向的方法。所有這些都使用高效率的風扇,具備變速控制以自動匹配冷卻與熱釋放,從而最小化能源使用。最常見的控制方法依賴于連接到柜門前端的傳感器來監測入口的空氣溫度和濕度。IRC可用于冷凍水,壓縮機和基于制冷劑的系統。一些可以提供濕度控制,這意味著它們還需要冷凝排水管連接,而其他則只能提供等濕冷卻(sensible cooling)。IRC的較大缺點是它們占用的機柜位置,從12到30英寸的寬度不等。 雖然通過消除了對于大的周邊所需的CRAC的使用通常抵消了占地面積的要求,但是行內單元破壞了機柜行的連續性,這在一些安裝中是非常重要的。機柜冷卻裝置上方是基于制冷劑的,這吸引了在其數據中心運行的水管有偏執偏好的數據中心管理人員們。但是制冷劑系統也接近能源效率的規模頂端,并且不會吞噬地板空間,因為它們或者直接位于機柜之上或在機柜行之間的冷通道中。它們最常用來補充傳統的CRAC,以便直接向高密度機柜提供額外的冷卻。由于這些單元僅提供等濕冷卻,因此CRAC仍然需要控制濕度,并冷卻低密度機柜。機柜上方機組需要占用空間,并且在設計過程中與其他架空基礎設施進行精心的協調。
后門熱交換器(RDHxs)取代了傳統的機柜上的穿孔后門。從計算設備排出的熱量通過門中的線圈,在其逸出之前用冷的循環水進行中和。這意味著入口和出口的溫度是相同的。RDHx冷卻器的一大優勢是其能夠與溫水一起使用。傳統的建筑物冷卻系統使用45華氏度的水,但是,在現代數據中心建筑中55至60華氏度的溫度變得越來越普遍。與大多數冷卻單元不同,RDHx在高溫下仍然表現良好。被動的RDHxs被設計為通過門線圈低壓降,排名能源效率規模的認可度高位置。
RDHx單元還可以附加到幾乎任何規模尺寸的機柜或使用適配器框架制造的設備。它們的主要缺點是將機柜深度增加了大約6英寸,每個機柜需要水管和閥門以及連接軟管所需的清除空間,因此門可以打開。當軟管與地板桁條相沖突時,這在活動地板設計中是具有挑戰性的。請記住,RDHx的安裝從不完全受控制,因為它們依靠重新循環來運行。因此,在主要使用RDHx冷卻的冗余設計中是固有的。
自冷柜可以可以在很大程度上幫助解決這一問題,特別是當需要幾個高密度柜,而實施重大的冷卻升級又不現實的時候。機柜是完全封閉的,內置冷卻,使設備熱量在機柜內冷卻,并重新循環到設備進水口。這些機柜可以使用冷凍水或制冷劑連接;他們甚至可能包含自己的冷卻壓縮機,就像一臺大冰箱。
這些機柜較大的問題是冷卻故障。有具備冗余、“熱插拔”冷卻組件的機柜,但最常見的方法是自動門釋放,在發生冷卻故障的情況下打開后門。這意味著設備受到機房中的冷卻條件的影響,可能不足以持續幾分鐘。自冷卻裝置通常比其他機柜大,并且價格相當昂貴。然而,它們的成本要比實施重大的冷卻升級的成本低。
浸沒冷卻是一種新的、有趣的技術。服務器完全浸沒在不導電的冷卻劑中,例如純礦物油或3M研制的Novec冷卻液中,其包圍組件并散熱。固態驅動器是首選,但是如果它們被密封或懸掛在油位之上,則可以使用傳統的常規驅動器。這消除了10%到20%的服務器能源使用以及最易發生故障的元件。
液體的熱慣性可以在發生電源故障的情況下將服務器保持在溫度公差范圍內,根本不需要冷卻功率。一款系統可以維持25千瓦半小時的時長。系統可以打造100 kW或更大的容量,可以在任何氣候條件下運行,無需冷卻設備。在至少一款這樣的系統中,唯一的移動部件是循環泵,冷凝器水泵和冷卻塔風扇。
標準的為提供舒適度的建筑冷卻方案是為滿足在機房內工作的人員的需要所提供的。其結果是極端的能源效率(能源效率低至一款良好的風冷設計的50%),并且潛在地降低了總成本,因為消除了對于操作環境涼爽的工廠的需要。一款有42臺機架承載了約300加侖的油或冷卻液,重量在2500磅和3000磅之間,但分配的重量超過了約12平方英尺,這導致其比今天許多的機架較低的地板負載。
直接的液體冷卻也可以被稱為“一切舊貌換新顏”。液體冷卻再次出現在高性能計算環境中,根據一些業內專家的預測,隨著企業服務器及其處理器變得越來越普及,而且更小更強大,液體冷卻將成為司空見慣的事,甚至是必要的。
這些系統要么循環冷卻水要么循環制冷劑,通過服務器以經由特殊散熱器直接從處理器去除熱量。這實質上是筆記本電腦多年來一直所使用的冷卻方法,采用內部閉環液體冷卻系統,其將處理器熱量移動到筆記本電腦外殼的邊緣,然后借助風扇排出散熱。用于服務器的直接液體冷卻將液體循環到每個機柜中的第二液體——熱交換器,或者有時甚至一直返回到中央冷卻系統。
這種技術較大的問題是潛在的泄漏和對管道連接以及所有電源和電纜的必要管理。制造商盡較大努力避免泄漏,借助使用液體管線以盡可能減少的連接點。
是時候采用密集的服務器機架設計了
數據中心密度曾經是一個具有啟示性話題,這可能是為什么許多IT企業組織仍然處于4到6 kW機架密度的原因所在了。但是電源和熱管理已經為在大于10 kW服務器機架設計中的正常運行做好準備了。
猛漲的處理器內核和機箱刀片服務器設計使計算機機房空調(CRAC)和電源成本變得失控似乎是不可避免的。但是,更高的密度并不會因為設計師的擔心而扼殺服務器。虛擬化,節能硬件,積極的冷卻遏制和可接受的更高的操作溫度聯合起來,以防止熱耗盡陷入困境。
冷卻散熱的問題有多大?
并非每項工作負載使用一臺服務器,而是使用虛擬化技術適度的對服務器部署虛擬機管理程序,以支持10項、20項甚至更多的工作負載。設備必須將服務器壓縮到每個開放的機架空間中,以匹配由虛擬化支持的工作負載容量。同時,芯片在晶體管水平和更低的時鐘速度下變得更加密集,因此在設備更新中螺旋式增加處理器核心的數量幾乎不改變機架的總體能量消耗。
在數據中心中使用較少的機架,更少的利用服務器已經改變了散熱的方法。無需冷卻整個數據中心,使用空氣處理策略,如熱/冷通道,以節省流經操作空間的空氣流,操作運營人員部署密封遏制策略,并將運營操作區域縮小到一個更小的房間,甚至在幾臺機架內。在機架行或機架冷卻系統處理這些機架,切斷CRAC。
此外,美國采暖、制冷和空調工程師協會(ASHRAE)這樣的組織提出,將服務器入口溫度提高到80甚至90華氏度。由于能源管理的這些進步,出現熱點和冷卻效率低下是不大可能的。然而,不良的規劃或復古設計將限制設施的效率增益。
熱點和其他冷卻問題
意外的障礙物或空氣路徑通道中的意外間隙會產生多余的熱量。例如,忽略服務器機架的擋板使冷卻的空氣流入機架中的意外位置,削弱其對其他服務器的影響,并增加出口溫度。
服務器功率的顯著增加也導致冷卻問題。例如,用刀片系統替換幾個白盒1U服務器大大增加了機架的功耗,并且不足的空氣流量可能阻礙全套刀片模塊的冷卻。如果冷卻方案不是專門為這種服務器而設計的,通常會出現熱點。
當企業提高服務器機架密度時請考慮數據中心基礎架構管理和其他系統管理工具,這些工具用于收集和報告每臺服務器和機架中的熱傳感器所提供的溫度數據。這些工具能夠識別違反熱限制,并采取必要的措施,從警告技術人員自動調用工作負載遷移到關閉系統,以防止過早的故障失效。
當服務器機架設計產生熱點時,IT團隊可以重新分配硬件設備。不是填充單臺機架,而是如果有可用空間的話,將多達一半的設備移動到第二臺機架,或者移走過熱的系統。
如果空間不能進行重新設計,則添加點冷卻裝置,例如用于數據中心使用的便攜式自包含空調。如果機架使用行內或機架內冷卻單元緊密排列,則降低設定點溫度可能更有效,而不是打開保護遏制屏障以添加點冷卻裝置。
長期的緩解措施
從長遠來看,更具破壞性的技術可以幫助進行熱管理。
水冷機架通過機柜門或其他空氣通道傳送冷凍水。水冷式服務器機架解決了廣泛的加熱問題,特別是當空氣溫度較低,或更高的空氣流動速率單獨不奏效時。
浸入式冷卻將服務器浸入冷卻的不導電、非腐蝕性材料(如礦物油)中。這種技術帶來更高的冷卻效率,幾乎沒有噪聲,在功率損耗的情況下進行長期的熱穿越。
然而,這些熱點選項更適合于最近新建的數據中心,而不是普通的技術更新。
上一篇: 通過WSL,你可以在Windows下愉快的玩耍Linux
下一篇: IPv6協議漏洞將威脅核心路由器安全