精密空調能耗超高的原因

近年來,精密空調的使用率增大,但同時越來越多的企業發現,

精密空調在帶來一些好處的同時,弊端日益突出,耗能超高,怎麼解決這種問題?從哪些方面入手?專家給出了以下答案:

精密空調能耗超高的原因

技術領域

近年來隨著高熱密度計算機機房建設的發展,一方面多數機房仍沿用原機房局址進行擴容而成;另一方面也有的機房是沿用原始設計而未能夠進行主設備擴容。這就會出現使用原精密空調機組已跟不上機房建設發展的需求而產生機房冷卻能力不足量的現象;或是精密空調機組的配置量超出了現有機房設備需求而產生機房冷卻能力超量的現象,這都會導致機房總體能耗之居高不下。

  據IDC預測,到2008年IT採購成本將與能源成本持平。另一方面,數據中心的能耗中,冷卻又佔了能耗的60%到70%。在接下來的幾年裡,世界上一半左右的數據中心將受電力和空間的約束,能耗會佔到一個IT部門1/3的預算。故在數據能源與冷卻問題會議上,Gartner有限公司的副總Michael Bell說:“在2008年全世界一半的數據中心將因為低效的動力供給和冷卻能力不能達到高密度設備要求而過時。”並有機構預測,在2000年全球第一波數據中心浪潮中建設的數據中心將有50%會在2008年開始重建。

技術背景應用範圍


 機房精密空調機組應用於電子計算機機房是按照現行國家標準A級電子信息系統機房進行設計的,其運行工況為:23±2℃/50±10%Rh;對於計算機和數據處理機房用單元式空氣調節機現行國家標準檢驗工況為23±1℃/55±4%Rh。

  而現有機房空調生產廠家所提供的機型其室內機迴風口工況參數點的設計多為24℃/50%Rh,在此工況下進行機房選型設計的直接膨脹式空調壓縮機COP值和整機SHR(顯熱比)值均較大,故機房建設進行空調設計時多按照上述工況參數點進行選型。但是若對應到22℃/50%Rh的工況參數點的設計會出現:傳統直膨式空調機的壓縮機COP值同比下降約7~8%、而整機顯冷量對比原總冷量亦會下降8~19.5%(根據公開的機房空調廠家數據表,直接膨脹式空調不同的下送風機型顯冷量同比會下降到原總冷量的92%~80.5%);若是採用冷凍水式空調機組整機的顯冷量對比原顯冷量會下降13.2%~16.6%。然而機房空調的負荷絕大部分是計算機類高熱密度負荷,其全部為顯熱負荷。那麼對比迴風參數24℃/50%Rh的工況所設計出來的空調機組,當運行於22℃/50%Rh工況下同比增加的能耗大約是15%~25%(即為了給顯熱負荷降溫而使得直接膨脹式機房空調機組壓縮機運行時間的同比延長量;或意味著冷凍水式機房空調機組之外部冷凍水主機供應冷凍水時間的延長量也即相應能耗的增長量)。若繼續調低空調機運行工況參數設定點,對應的能耗會呈非線性的增長;而且運行工況參數設定的過低會導致機房空氣溫度低於露點溫度而出現不可逆轉的溼度下降,當超過相對溼度設定下限後機房空調會自動執行加溼功能,由於電極式加溼器噴出的水霧會抵消掉機房空調大量的製冷量,屆時機房空調的耗能會呈指數性的上升。

  現在計算機機房的建設模式,一般是沿用原數據機房局址進行簡單的擴容而成。由於機房早期建設的時候已經對機櫃和空調進行了佈局,達到空調機組氣流組織對當時的機櫃負荷是最佳的設計;那麼現在越是高集成度(更高的熱密度)的計算機服務器進場越會被安排在遠離空調機組的位置上。

  這樣勢必會造成在新的計算機服務器開機運行時出現此區域溫度超標的現象,故而必須將空調機組設定的迴風溫度24℃調低。一般情況是在刀片服務器進場後至少調低空調機組設定溫度2℃。對此造成的能耗就已經超過空調出廠標準的20%以上了。然而隨著刀片服務器的高度集成化,其散熱量已經達到了每個機架30KW之巨;甚至有的正常運行機房在服務器機櫃出風口測量到了47℃的高溫。最後機房面臨著計算機服務器等高熱密度負荷的不斷進場,只能一味的調低空調機的設定溫度值,致使機房內溫度低得像個冷庫一樣。

  據研究機構UptimeInstitute在2006年對美國19個數據中心的研究中發現,數據中心的過度冷卻(over cooling)差不多達到實際所需要的2倍。目前85%以上的數據中心機房存在過度製冷問題,對應的機房空調機組耗能也會比設計工況增加能耗50%以上,最終造成機房空調居高不下的高額運行費用。

  另一方面設備發熱量又與設備類型、型號,機房佈置有著很大關係。據對一些機房做過的調研,發現有的設備發熱量並不大。例如某電信樞紐大樓在室外30℃、室內21℃乾球溫度時的實際冷負荷指標只有66W/m2,其中設備發熱很小。機房冷負荷遠遠小於常規計算指標的165~222W/m2。[1]而現實中有的機房佔地面積達到了396平方米,而真正需要機房空調的服務器和配線架負荷區域卻僅有60平方米。

  以上機房的建設,可能是根據電子計算機機房設計規範(GB50174-93)按下列方法進行主機房面積確定的:

當計算機系統設備已選型時,可按下式計算:

A=K∑S(2.2.2-1)

式中A--計算機主機房使用面積(m2);

K--係數,取值為5~7;

S--計算機系統及輔助設備的投影面積(m2)。

當計算機系統的設備尚未選型時,可按下式計算:

A=KN(2.2.2-1)

式中K--單臺設備佔用面積,可取4.5~5.5(m2/臺);

N--計算機主機房內所有設備的總檯數。

所以會產生上述機房內精密空調的配置遠大於實際計算機設備的需求之問題的存在。

  由於機房空調無法感知機房的服務器或通信網絡設備具體需求量,故其製冷能力之超量會導致空調機組壓縮機頻繁啟動,產生振盪,最終也會造成機房空調高額的運行費用。

  隨著數據中心(IDC)機房採用服務器虛擬化技術的大量應用,機房內高熱密度負荷勢必會出現散熱點向關鍵服務器轉移的現象,屆時可能會出現機房內只出現少數的高熱密度區域,其微環境需求會愈加嚴峻。

現有技術解決方案

 據綠色網格(GreenGrid)組織的有關專家所給出以下的建議。以指導怎樣提高數據中心能效。

  其中心理念是更好地冷卻過熱區域,而不浪費能量去冷卻已經冷卻的區域。

具體指導方針

冷卻通道:熱通道設計是為了促進有效流動同時將冷熱空氣流分開,並恰當安置空氣調節設備。

為服務器運行選擇動力經濟模式。

採用動態計算流軟件(
computationalfluiddynamics)對數據中心的空氣流進行模擬,並嘗試不同的地面通風口位置和計算空間空氣調節單元位置。最優冷卻系統可使數據中心能源支出節約25%。

無論負荷大還是小,冷卻系統的能耗是固定的。很好地利用將使其固定能耗降低。在保證增長的情況下,將生產量與數據中心設備的冷卻需求相匹配。

數據中心過熱點的直接冷卻與冷卻系統緊密相關,但注意不要冷卻已冷卻區域。將冷卻空氣的通道減短。使數據中心設計為服務器和存儲器機架的空氣流與房間空氣流相匹配,這樣就不會將電能浪費在從相反方向來抽取空氣。

採用刀片服務器和存儲器虛擬化來減少需要動力冷卻系統進行冷卻的物理設備的數量。這同時也減少了數據中心所佔用的空間。

採用更多的高能效照明設備(安裝控制器或定時器),這可以直接節約照明費用,並節約冷卻費用(因為照明設備的使用會導致其自身過熱)。

改進機架內部的空氣流,使其穿過通道,這可以通過配置盲板隔離空機架空間來實現。

當採用專業工程方法將冷卻用水直接輸送到機架以將電力系統和隔離管道等的風險最小化。

採用多核芯片來整合服務器可以減少所需冷卻服務器的數量。購買更多的高效芯片並進行動力分級以減少待機功率,這樣可減少冷卻需求。

如果可能,採用空氣調節裝置運行於冬季經濟模式。

檢查個別的空氣調節單元是否相協調並且未進行相反工作。


分享到:


相關文章: