

突然,有機柜發(fā)出了更響亮的嗡嗡聲,這是服務器的風扇正在全速運轉(zhuǎn)。
隨后,傳來了告警聲,這是服務器沒有得到足夠的制冷而發(fā)出的求救信號。
不一會,最糟糕的事情發(fā)生了,服務器過熱保護,自動關(guān)閉運行,這或?qū)е麓罅康挠脩魺o法訪問服務器。
與家用空調(diào)不同,機房設備更需高效、可靠的呵護。一個數(shù)據(jù)中心動輒數(shù)千臺服務器,大量的設備所消耗的電能幾乎都會變成廢熱,為了讓每臺設備保持在恒定的溫度下正常運轉(zhuǎn),數(shù)據(jù)中心配置了如冷水機組、冷卻塔、末端空調(diào)等設備的大型的制冷系統(tǒng)來吸入熱空氣、排出冷空氣。
可你知道嗎?為了排放廢熱,這些制冷系統(tǒng)是數(shù)據(jù)中心的耗電大戶,降低數(shù)據(jù)中心的能耗(降低PUE值)一直是業(yè)界關(guān)注的焦點。

一個大型數(shù)據(jù)中心的電費占據(jù)了約70%的運營成本,全球數(shù)據(jù)中心每年電力消耗相當于8個三峽水電站的發(fā)電量。例如PUE為2的數(shù)據(jù)中心,在總能耗中,IT設備能耗占了一半,制冷系統(tǒng)能耗占約30%,這就是PUE居高不下的原因。
近年來,隨著移動互聯(lián)網(wǎng)、云計算技術(shù)的蓬勃發(fā)展,數(shù)據(jù)中心已成為現(xiàn)代信息生活不可或缺的ICT基礎設施。面向5G萬物互聯(lián)時代,數(shù)據(jù)流量急劇增長,數(shù)據(jù)中心必將進一步向大型化和高密化發(fā)展。
但海量數(shù)據(jù)處理產(chǎn)生的熱量隨之增加,為保障設備穩(wěn)定運行,制冷系統(tǒng)能耗也將持續(xù)走高。
如何讓數(shù)據(jù)中心更節(jié)能、更高效?業(yè)界為此絞盡了腦汁…
比如,F(xiàn)acebook在瑞典北部,靠近北極圈的地方建數(shù)據(jù)中心,以利用自然低溫為數(shù)據(jù)中心散熱,降低能耗。

微軟在蘇格蘭奧克尼群島海岸附近建“水下數(shù)據(jù)中心”,利用寒冷的海水散熱。

Facebook和微軟將數(shù)據(jù)中心建在北極和海下,目的是通過“免費”獲取冷源的自然冷卻技術(shù)來降低能耗。
但是, Facebook和微軟采用的自然環(huán)境冷卻方式受地域限制,你不可能把所有數(shù)據(jù)中心都搬到遙遠的北極或沉到海底,未來5G時代的低時延應用更需就近部署。
所以,我們還得把目光轉(zhuǎn)回來,看看如何降低制冷系統(tǒng)本身的能耗?偟膩碇v,當下制冷系統(tǒng)向高效化和智能化趨勢發(fā)展,方法可謂是“軟硬兼施”,以獲得更低的PUE。
大型數(shù)據(jù)中心一般采用冷凍水制冷系統(tǒng)。制冷系統(tǒng)主要由冷水機組、冷卻塔、水泵和末端空調(diào)等組成,通常冷水機組、末端及水系統(tǒng)組件是能耗關(guān)注的重點。

過去以來,為了提升制冷系統(tǒng)能效,在冷源側(cè),從風冷向水冷、自然冷卻發(fā)展;在空調(diào)末端側(cè),從房間級制冷發(fā)展到行級制冷、頂置制冷和機柜級制冷,以更加靠近熱源,減少冷媒輸送能耗,提升冷卻效率。

隨后,由于數(shù)據(jù)中心內(nèi)設備眾多,設備發(fā)熱量動態(tài)變化,智能化的制冷系統(tǒng)開始應用于數(shù)據(jù)中心,使能根據(jù)變化隨時隨地的提供動態(tài)調(diào)節(jié)制冷方案,比如變頻空調(diào)、變?nèi)萘繅嚎s機、風量智能調(diào)節(jié)技術(shù)等。
但是,由于傳統(tǒng)制冷系統(tǒng)中精密空調(diào)、水泵、冷水機組、冷卻塔來源不同廠家,各自獨立運行,少有對整個制冷系統(tǒng)進行系統(tǒng)性的效率優(yōu)化。
要系統(tǒng)性的提升制冷效率,需要實現(xiàn)從冷凍站、空調(diào)末端到IT負載的端到端協(xié)同管理和精細控制來智能化降低制冷系統(tǒng)的功耗。
最近在HUAWEI CONNECT 2018上,華為發(fā)布了基于AI的iCooling解決方案,正是這種智能化方向的代表。
基于AI的iCooling數(shù)據(jù)中心能效優(yōu)化解決方案,針對數(shù)據(jù)中心制冷效率提升瓶頸,通過機器深度學習,對大量的歷史數(shù)據(jù)進行業(yè)務分析,探索影響能耗的關(guān)鍵因素,獲取PUE的預測模型;赑UE的預測模型,獲取與PUE敏感的特征值,利用特征值,進行業(yè)務訓練,輸出業(yè)務的預測模型。最后利用系統(tǒng)可調(diào)整的參數(shù)作為輸入,將PUE預測模型、業(yè)務預測模型作為約束,利用尋優(yōu)算法,獲取調(diào)優(yōu)參數(shù)組,下發(fā)到控制系統(tǒng),實現(xiàn)制冷系統(tǒng)的控制。最終通過規(guī)范化的實踐引導和目標導向評測,不斷調(diào)整優(yōu)化,獲取均衡PUE。

在華為廊坊數(shù)據(jù)中心,實測環(huán)境為1500柜,單柜密度4kW/柜,43%IT負載率,2N供電系統(tǒng),N+1冷凍水系統(tǒng),采用iCooling智能溫控技術(shù)后,冷凍站總能耗降低325.6kW,冷凍站COP提升8.2,全年P(guān)UE由1.42降為1.304,每年可節(jié)省電費372萬元,實現(xiàn)了從“制冷”向“智冷”轉(zhuǎn)變,為未來降低數(shù)據(jù)中心能耗奠定了新方向。

其實,試圖用AI優(yōu)化制冷的并不只有華為,Google已宣布通過旗下DeepMind公司的AI技術(shù)來降低數(shù)據(jù)中心能耗,其原理與iCooling類似,在制冷系統(tǒng)中安裝數(shù)千個傳感器收集并發(fā)送數(shù)據(jù)到深度神經(jīng)網(wǎng)絡,再作出最優(yōu)決策建議。
不過,Google開發(fā)的技術(shù)目前只針對自己的數(shù)據(jù)中心,未對外,不具有普適性。而華為iCooling作為對外發(fā)布的解決方案,為各家數(shù)據(jù)中心提供了最優(yōu)解決方案。
基于軟件化的AI解決方案是趨勢,同樣,在硬件效率的提升上業(yè)界也一直不遺余力。
各廠家在硬件上常選用更節(jié)能的壓縮機和風機來提升空調(diào)末端效率,并有持續(xù)的投入,使得在這兩部分上技術(shù)和性能都差異不大。但加濕系統(tǒng)的能耗往往容易被忽視。
通信機房要求濕度必須控制在50%±5%。以北方數(shù)據(jù)中心為例,空調(diào)系統(tǒng)全年耗電約有2%~3%的比例消耗在加濕系統(tǒng)上;如果數(shù)據(jù)中心制冷系統(tǒng)年耗電在1000萬kwh,那么10年生命周期將有200~300萬kwh的電費消耗在加濕系統(tǒng)上。
因此,數(shù)據(jù)中心除了在不間斷使用的的制冷系統(tǒng)上進行節(jié)能減排措施外,也需要在加濕等溫濕度及環(huán)境控制輔助耗電單元上進行優(yōu)化設計,進一步降低日趨膨脹的數(shù)據(jù)中心能源消耗。
目前常用的內(nèi)置式加濕有:紅外加濕、電極加濕、濕膜加濕。
濕膜加濕的大致原理是,通過循環(huán)水泵將水箱中的水送到濕膜頂部布水器,水向下滲透,均勻地濕潤濕膜表面,通過水蒸發(fā)增加空氣的濕度。整個過程不需要耗費額外功率。
與紅外加濕和電極加濕相比,濕膜加濕不必將熱量轉(zhuǎn)化為水蒸氣,在改變空氣濕度的同時還能降低溫度,可大幅降低功耗,且維護方便,無需額外水處理設備。

濕膜加濕可以多節(jié)能?讓我們來看一組統(tǒng)計數(shù)據(jù)。

在目前內(nèi)置式加濕中,華為采用獨有的濕膜加濕技術(shù),相比傳統(tǒng)的加濕方式節(jié)能95%。
iCooling、濕膜加濕等技術(shù),說明了華為在數(shù)據(jù)中心溫控領(lǐng)域也是佼佼者。這與華為在該領(lǐng)域的持續(xù)投入有關(guān):
華為于2008年成立網(wǎng)絡能源產(chǎn)品線,開始數(shù)據(jù)中心溫控產(chǎn)品研發(fā)。十年來,華為溫控產(chǎn)品線每年將銷售收入的15%投入研發(fā),已在全球設立三大空調(diào)研發(fā)中心,分別位于中國西安、深圳以及德國紐倫堡,現(xiàn)有溫控研發(fā)工程師超過150人,提供全系列的自研數(shù)據(jù)中心溫控解決方案。
根據(jù)ICTresearch的研報, 2016年和2017年華為行級溫控在中國市場份額蟬聯(lián)第一。

數(shù)據(jù)來源:ICTresearch 2018
不久前,中國移動2018年山西等五省新型空調(diào)末端系統(tǒng)集成補充采購項目結(jié)果揭曉,華為以33.32%的份額中標。
不斷的研發(fā)投入和技術(shù)創(chuàng)新以降低數(shù)據(jù)中心能耗,是華為的堅持,也是行業(yè)一致的追求,相信隨著技術(shù)的發(fā)展和成熟,華為將會帶來更多的驚喜。
