因為專業(yè)
所以領(lǐng)先
數(shù)據(jù)中心作為當(dāng)今數(shù)字經(jīng)濟蓬勃發(fā)展重要底座,在為千行百業(yè)提供新動能的同時,其能耗也在規(guī)模不斷擴大的過程中快速增加。有數(shù)據(jù)顯示,數(shù)據(jù)中心能耗已占社會用電量的約4%,這讓數(shù)據(jù)中心能耗有效性備受關(guān)注。為此,國家發(fā)改委等多部門密集出臺政策,提出到2025年新建大型、超大型數(shù)據(jù)中心 PUE(Power Usage Efficiency,電能利用效率)低于1.3,國家樞紐節(jié)點低于1.25等嚴(yán)格要求,強調(diào)加強數(shù)據(jù)、算力和能源之間的協(xié)同聯(lián)動,加速節(jié)能低碳的技術(shù)創(chuàng)新和模式創(chuàng)新,促進(jìn)了冷板液冷等先進(jìn)散熱技術(shù)成為綠色數(shù)據(jù)中心建設(shè)的重要抓手。
據(jù)數(shù)據(jù)中心綠色能源技術(shù)聯(lián)盟統(tǒng)計數(shù)據(jù)顯示,目前大多數(shù)傳統(tǒng)數(shù)據(jù)中心PUE 值在1.5 以上。其中一部分原因是在數(shù)字化轉(zhuǎn)型驅(qū)動下,計算密集型應(yīng)用場景激增,加上云業(yè)務(wù)的廣為采用,導(dǎo)致承載這些應(yīng)用負(fù)載的服務(wù)器等IT設(shè)備功耗大幅增加,使得數(shù)據(jù)中心設(shè)計功率密度呈現(xiàn)逐年增大的趨勢;另外,為了滿足高算力負(fù)載需求,數(shù)據(jù)中心需要疊加多核處理器來提高計算密度,從而顯著增加處理器等硬件的功耗。
但 IT 設(shè)備本身能源消耗過高卻并非是PUE值偏高的主要問題,服務(wù)器數(shù)量與密度的增加,以及機架密度升高所帶來巨大散熱壓力才是癥結(jié)所在。據(jù)統(tǒng)計,來自數(shù)據(jù)中心冷卻系統(tǒng)等非 IT 負(fù)載所消耗的能源占比超過總耗能的三分之一,甚至占到40%,已經(jīng)成為了數(shù)據(jù)中心可持續(xù)發(fā)展道路上不可避免的一大挑戰(zhàn)。
圖一 英特爾綠色數(shù)據(jù)中心技術(shù)框架
目前,傳統(tǒng)數(shù)據(jù)中心的散熱方式主要通過風(fēng)冷手段進(jìn)行,即以空氣作為冷媒帶走熱量。雖然通過技術(shù)優(yōu)化,比如提升風(fēng)冷設(shè)備的體積、面積、熱管技術(shù),以及實施從機架到節(jié)點的各種調(diào)優(yōu),也可將數(shù)據(jù)中心PUE降到1.2左右。但是據(jù)測算,單機架功率密度到 2025 年將是 2021 年的 5 倍,使得過去能滿足 12kW 以內(nèi)機柜制冷需求的風(fēng)冷措施,已無法應(yīng)對隨服務(wù)器單位功耗增大,原先尺寸的機柜可容納服務(wù)器功率往往超過 15kW 的現(xiàn)實需求,更遑論讓數(shù)據(jù)中心維持能耗成本與收益的平衡,可見風(fēng)冷技術(shù)已趨于能力上限。
數(shù)據(jù)中心產(chǎn)業(yè)需要探索新的技術(shù)來幫助充分釋放計算的潛能,同時促進(jìn)綠色可持續(xù),而液冷技術(shù)恰逢其時,脫穎而出。所謂液冷,通俗來講就是通過液體代替空氣,把CPU、內(nèi)存等IT發(fā)熱器件產(chǎn)生的熱量帶走。液冷正在取代目前數(shù)據(jù)中心普遍采用的風(fēng)冷技術(shù),逐步成為推進(jìn)數(shù)據(jù)中心綠色轉(zhuǎn)型的關(guān)鍵動力。
那么,液冷技術(shù)為何受到青睞呢?
首先,液冷系統(tǒng)能夠在更靠近熱量來源的位置與液冷介質(zhì)進(jìn)行熱交換,避免空氣湍流和空氣混合;其次,液體比空氣具有更高的熱容量和更低的熱阻,對于同樣體積的傳熱介質(zhì),冷卻劑能以空氣的6倍速度傳遞熱量,蓄熱量是空氣的 1000 倍;第三,與風(fēng)冷相比,冷卻液的傳熱次數(shù)更少,容量衰減更小,效率更高,這還意味散熱過程中驅(qū)動冷卻介質(zhì)所需的能耗更低,循環(huán)系統(tǒng)耗能少。