1. <th id="ftnsx"></th>
          機房360首頁
          當前位置:首頁 ? 數據中心資訊 ? 拐點已至,數據中心邁入液冷時代|ToB產業觀察

          拐點已至,數據中心邁入液冷時代|ToB產業觀察

          來源:鈦媒體APP 作者:張申宇 更新時間:2024/1/17 6:58:33

          摘要:2023年,在以AI大模型為代表的新一代數字技術應用不斷涌現的背景下,各行業對算力的需求與日俱增。同時,作為算力底層支撐的數據中心也趁勢逐步向智算中心演進,數據中心行業可以說又一次迎來革新。

          2023年,在以AI大模型為代表的新一代數字技術應用不斷涌現的背景下,各行業對算力的需求與日俱增。同時,作為算力底層支撐的數據中心也趁勢逐步向智算中心演進,數據中心行業可以說又一次迎來革新。

          而在數據中心向著智算發展的過程中,隨著機柜功率越來越大,對數據中心暖通也提出了更高的要求,傳統的散熱模式已經沒辦法解決CPU\GPU的散熱問題,數據中心暖通系統也步入了革新的時代。

          液冷也正成為未來數據中心供冷“標配”,市場熱度逐步增加。據IDC數據顯示,2022年中國液冷服務器市場規模為10.1億美元,滲透率在10%左右;而到了2027年,中國液冷服務器市場規模將達到89億美元,2022年-2027年復合增長率為55%。

          傳統散熱模式失效

          2023年10月份,六部委聯合印發的《算力基礎設施高質量行動計劃》中明確,到2025年,算力規模要超過300EFLOPS,智能算力占比達到35%以上,重點行業的核心數據、重要數據的災備覆蓋率要達到百分之百,每個重點領域要打造30個應用標桿等。

          據統計,截至2023年上半年,全國在用的數據中心總規模超過760萬標準機架,算力總規模達到了197EFLOPS,已經位居全球第二。新增的算力設施中,智能算力的占比超過了50%,成為了增長的新熱點。

          顯然,未來智算中心將成為數據中心行業的“主力軍”,而數據中心也必將從原先的“存儲中心”向著“計算中心”轉變,中國信息通信研究院云計算與大數據研究所所長何寶宏曾表示,現階段,數據中心的核心使命是算力的供給,而不再是存儲能力的供給。

          在這個轉變的過程中,隨著越來越多以GPU為核心的智算中心的落地,數據中心的能耗,以及產生的熱量也必將越來越多。據不完全統計,以Intel、英偉達等主要芯片制造商的產品為例,目前主流系列處理器功耗已達350~400TDP/W。這還僅是CPU的功耗,而GPU的功耗遠遠高于CPU,以英偉達H800為例,其功率密度可達700TDP/W。并且,隨著摩爾定律逐漸失效,在后摩爾定律時代下,芯片算力與其功耗仍將大幅提升。

          與此同時,數據中心作為高載能行業的屬性,在“雙碳”戰略的引導下,推進節能減排,降低PUE(PowerUsageEffectiveness,電源使用效率),實現碳中和,也是必須之舉。

          據科智咨詢測算,以運行PUE為1.57的數據中心為例,IT設備能耗占比達63.7%,為數據中心最大,其次就是制冷系統能耗,占比可達27.9%?,F階段,隨著數據中心的計算能力和功率密度不斷增加,傳統的風冷技術已逐漸無法滿足高效散熱的需求。

          數據中心采用傳統風冷技術散熱上限一般為單機柜20KW,在高密度部署流行的當下,單機柜功率也逐步攀升,萬國數據中國區聯席總裁梁艷曾表示,現階段,國內很多大廠單機柜密度已達到70~100KW。顯然,傳統風冷已經難以滿足高密度部署的需求。

          無獨有偶,科華數據數通高級副總裁、數據中心業務總經理鄒建忠也曾對鈦媒體表示,當下數據中心單機柜功率越來越大,傳統的散熱模式已經沒辦法解決CPU\GPU的散熱問題。

          寧暢信息產業有限公司總裁秦曉寧也曾公開表示,在大模型快速發展的當下,用戶側機柜的功率越來越高,與之相對應的,對機柜散熱的要求也越來越大。“與此同時,在‘雙碳’目標的引導下,傳統風冷顯然已經不足以滿足數據中心PUE要求,液冷已經成為數據中心必選項。”秦曉寧強調。

          在此背景下,數據中心亟需暖通技術亟需革新,需要一項新的制冷技術幫助數據中心在滿足用戶對算力與日俱增的需求的同時,有序推進數據中心實現碳中和。

          液冷技術作為一種新興的散熱解決方案,在數據中心領域展現出巨大的應用潛力。據了解,僅采用傳統風冷技術的數據中心PUE極限值為1.25,而采用液冷技術后,數據中心PUE值可低于1.1。

          “長線”浸沒式,“短線”冷板式.....液冷布局逐漸清晰

          液冷在數據中心行業的發展并不是新鮮事,自從“雙碳”提出以后,液冷相關技術就得到了數據中心行業的高度關注,但在2023年,隨著對算力需求的激增,機柜功率的進一步提升,以及液冷產業不斷成熟,液冷技術才真正開始在數據中心行業切實落地。

          根據IDC發布的《中國半年度液冷服務器市場(2023上半年)跟蹤》報告,中國液冷服務器市場在2023年仍將保持快速增長。2023上半年中國液冷服務器市場規模達到6.6億美元,同比增長283.3%,預計2023年全年將達到15.1億美元。浪潮信息數據中心產品部副總經理李金波表示,據測算,到2025年中國液冷數據中心市場滲透率將超20%。

          快速增長的液冷為數據中心提供了更可靠、更低碳的供冷方式的同時,由于液冷技術的細分供冷方式,也帶來行業內關于哪種液冷技術更適合數據中心應用的討論。

          據了解,液冷技術應用于數據中心中主要有三種,即:冷板式液冷、浸沒式液冷和噴淋式液冷。其中,浸沒式液冷又分為單相浸沒式和相變浸沒式兩種;冷板式液冷又按照不同場景可分為芯片級、機柜級等。

          以目前包括浪潮信息、寧暢、阿里云、曙光等中國液冷行業頭部玩家的布局,以及數據中心應用情況來看,冷板式液冷與浸沒式液冷屬于未來比較可行的液冷路徑。

          其中,冷板式液冷是在熱源上覆一塊水冷板,完全阻隔了冷卻液與電子器件之間的直接接觸。使用泵和管道將冷卻液送至與電子部件接觸的冷板上來傳遞熱量,通過液體流動把熱量帶走。

          冷板主要覆蓋CPU、GPU、DIMM等核心發熱部件,即“把錢花在刀刃上”,對于其他部分的散熱,冷板式液冷通常需要風冷精密空調來輔助冷卻,也因此,相比于將服務器全部浸泡在冷卻液中來散熱的浸沒式液冷,冷板式液冷的PUE會較高。據IDC數據顯示,2023上半年,中國液冷服務器市場中,冷板式占比達90%。

          與冷板式液冷不同,浸沒式液冷則是醬IT硬件設備直接浸入充滿絕緣性冷卻液(目前比較常見的是氟化液)的密閉容器中,電子組件產生的熱量直接傳導至氟化液。

          單相浸沒式液冷系統的浸沒機柜設計更為簡單,氟化液更易操作、維護。與相變浸沒式液冷相比,單相浸沒式液冷在材料兼容性和循環中污染物上的隱患也更少。

          相變浸沒式液冷系統則是通過沸騰過程(通過液相到氣相的變化),實現更高的傳熱效率,從而實現更大的功率密度(高達250至500千瓦/浸沒腔)。此外,支持相變浸沒式液冷所需的冷卻基礎設施通常膠簡單,如果使用干式冷卻器作為一次側冷卻,無需冷卻水塔等蒸發降溫設施。

          以鈦媒體對于目前業內從業者的調查顯示,因為可以實現更高的傳熱效率,以及支持更大功率密度的機柜,相變浸沒式液冷相較于單相浸沒式液冷更受“歡迎”。

          在冷板式與浸沒式之間,目前行業對冷板式液冷的接受度更高。李金波對鈦媒體表示,相比于浸沒式液冷,冷板式液冷在對數據中心與服務器架構的改造程度、產業鏈成熟度、部件更換運維便捷性、初期投資等方面均有顯著優勢。

          鄒建忠也曾對鈦媒體表示,從投資收益角度來看,浸沒式液冷前期投資太高,投資收益不如冷板式液冷。不過,在他看來,如果是新建機房,且機柜功率特別大的情況,更適合部署浸沒式液冷。

          從現階段技術和應用角度出發,浸沒式液冷對元器件及運維的要求更高,寧暢信息產業有限公司副總裁兼首席技術官趙雷對鈦媒體表示,浸沒式液冷需要考慮的因素相較于冷板式液冷更多,“用戶主要需要考慮冷卻液與元器件的兼容性、可靠性,以及后期運維難度等問題,”趙雷如是說,“除此之外,元器件長期浸泡在冷卻液中,對元器件的‘耐久度’也是個不小的考驗。”

          確實,鈦媒體通過調研包括IDC服務商、液冷技術供應商,以及部分行業用戶等在內的眾多從業人員,總結出:

          從短期角度出發,冷板式液冷比較適合數據中心大規模應用。冷板式液冷相較于浸沒式液冷,因其定制化程度低、產業鏈較成熟、運維難度低等特點,比較符合當下數據中心從傳統風冷向液冷的過渡;

          從長期角度出發,浸沒式液冷更符合數據中心長期發展。浸沒式液冷因其導熱效果更好、余熱更便于回收、支持機柜功率更大等特點,從長遠角度上看,隨著對單機柜功率需求的不斷增加,浸沒式液冷更適合未來數據中心的供冷。

          IDC服務商、液冷技術供應商.....多方布局

          雖然液冷在數據中心中的應用是去年才開始入雨后春筍般不斷涌現的,但“竹根深埋春土中,破土而出春筍蓬”,液冷技術也正是經過多年來產業上下游的共同努力,才得以在數據中心應用落地的。

          立足國內液冷產業,目前比較領先的技術供應商主要有浪潮信息、寧暢、曙光等企業。這其中,早在2022年初,浪潮信息就提出“Allin液冷”的戰略。

          據鈦媒體從浪潮信息了解的最新消息顯示,浪潮信息聯合英特爾創新研發的全液冷冷板技術方案,實現了100%液冷散熱,PUE可降至1.08,并通過去空調化實現系統極簡,節省數據中心30%以上的空間,進一步實現高密部署,進一步推動數據中心高能效、高密度綠色發展。

          另一方面,同樣作為數據中心液冷解決方案頭部玩家的寧暢也于2023年底推出了全新的B8000液冷整機柜服務器。據寧暢公開信息顯示,寧暢B8000液冷整機柜服務器節點內液冷覆蓋率超過90%,PUE可低至1.09,在業內冷板液冷PUE1.2的平均水平下。

          與此同時,在液冷服務器出貨量方面,浪潮、超聚變與寧暢也是國內大多數客戶選擇液冷服務器時的優先考慮目標,據IDC發布的《中國半年度液冷服務器市場(2023上半年)跟蹤》報告數據顯示,2023上半年市場占比前三的廠商分別是浪潮信息、寧暢和超聚變,共占據了七成左右的市場份額。

          值得注意的是,除了液冷服務器與技術供應商層面出現“神仙打架”局面之外,目前還有諸如云酷智能、英維克、申菱環境等眾多提供包括接頭、電磁閥、機柜、CDU、manifold等在內的液冷基礎設施服務商。

          而液冷數據中心可觀的發展前景也吸引了諸如美的、海爾等在內的眾多傳統風冷、水冷等數據中心暖通解決方案供應商的入局,可以說,當下數據中心液冷已呈現出“百舸爭鳴”的現狀。

          IDC服務商方面,以IDC頭部玩家世紀互聯為例,據世紀互聯相關負責人對鈦媒體表示,世紀互聯太倉基地是目前國內最大的冷板式液冷數據中心集群。據了解,太倉基地已交付獨立110kV及220kV變電站,總體規劃電力容量不低于880MVA,總IT容量可達300MW+,總算力不小于1780PFLOPS。

          該項目采用業內首個第三代全新架構的風、液組合冷卻技術解決方案,整體解決方案由多個世紀互聯自研的冷卻系統有機組成,是同類型數據中心冷卻技術應用的重大突破,有效降低了數據中心的PUE,處于同地域行業領先水平,極大提高數據中心運營效率,并節約全生命周期TCO。

          除此之外,諸如萬國數據、科華數據等第三方IDC廠商也都在嘗試液冷在數據中心中的應用,也都已經有較成熟應用案例落地。

          從目前應用情況來看,應用液冷的數據中心大多數采用冷板式液冷與風冷機組混合部署的方式進行建設。這種部署形式主要在機房內以機房微模塊的形式呈現,可以實現液冷、風冷以及風液混合的靈活部署?;旌喜渴鸬哪J娇梢宰畲笙薅鹊乩迷械娘L冷資源,避免在液冷數據中心改造過程中造成資源浪費。

          顯然,液冷已經成為未來數據中心綠色化過程中不可或缺的一環。IDC數據顯示,2022年中國液冷服務器市場規模為10.1億美元,滲透率在10%左右;而到了2027年,中國液冷服務器市場規模將達到89億美元,2022年-2027年復合增長率為55%。而今年也將會有越來越多的液冷數據中心落地。

          展望未來,冷板式液冷的“液冷”呈現出離芯片越來越近的趨勢,最理想的狀態將是芯片級液冷+機柜級液冷的組合形式;浸沒式液冷雖然目前不如冷板式液冷發展快,但從長遠角度出發,隨著單機柜功率越來越大,單機柜突破100KW已經“近在眼前”,當單機柜超過80KW,達到100KW甚至更大時,浸沒式液冷的優勢就顯現出來了。

          伴隨新的算力供給需求,數據中心已經邁入液冷時代。在市場火熱的追逐下,技術落地的具體挑戰也有望加速解決,比如安全性、硬件成本、運維難度……冷板式液冷是當下數據中心有效降低PUE的手段,同時其兼容性更強、定制化程度更低;浸沒式液冷在未來發展空間更大,市場增長空間也更大。


          編輯:Harris

          機房360微信公眾號訂閱
          掃一掃,訂閱更多數據中心資訊

          本文地址:http://www.digitalgaraz.com/news/2024117/n4102155327.html 網友評論: 閱讀次數:
          版權聲明:凡本站原創文章,未經授權,禁止轉載,否則追究法律責任。
          轉載聲明:凡注明來源的文章其內容和圖片均為網上轉載,非商業用途,如有侵權請告知,會刪除。
          相關評論
          正在加載評論列表...
          評論表單加載中...
          • 我要分享
          推薦圖片
          久久免费中文视频_自拍亚洲欧美变态重口_国产亚洲精品久久久久久久无码_天天日天天cao