SC19:我們再次見到了兩相浸入式液冷方案
在去年的超算大會上,我們見到了許多浸入式散熱方案。沒想到在今年的超算大會上,我們又看到了更進一步的展示。所謂“兩相浸入式液體冷卻(2PILC)”系統,主要包含了一台幾乎沒有主動式散熱的服務器,並將其完全浸沒在低沸點的液體中——通常是與硅直接接觸的有機化合物,而不是水或油。
(題圖via AnandTech)
芯片在使用時發熱,然後導致周圍的散熱液沸騰。常見的有3M Novec of Fluorinert 的變體(沸點在59 ℃ 左右)。
液體氣化過程會上升並帶走熱量,使得散熱液在兩種相態之間進行對流、冷凝(通過冷卻板或水管)、循環。
這些非離子液體不會導電、粘度和相對適中,能夠有效促進自然的對流。如果芯片的熱設計功耗太高,亦可加入促進對流的主動式散熱方案。
廠家顯然希望讓這套方案在服務器或高性能PC領域實現廣泛的運用,在將所有配件保持在合理溫度下的同時,還支持超密集的設計。
比如外媒AnandTech 報導過的TMGcore 的OTTO 系統,就採用了2PILC 技術。其能夠在16 平方英尺(約1.5 ㎡)的空間內,放置高達60kW 的數據中心單元。
客戶只需為設備供電、供水和網絡連接,在需要維護的時候,這套方案還支持自動取放功能。該公司稱,在受控環境下,2PILC 技術能夠有效延長硬件的使用壽命。
去年,這項技術的主要方向之一,是用於加密系統或超密集協處理器。不過在SC19 上,我們並沒有見到那麼多,更別提任何面向5G 邊緣計算的2PILC 服務器了。
有趣的是,一些組件公司(比如VRM 製造商),正在驗證其用於2PILC 環境的硬件。通常數據中心會根據電源使用效率(PUE)來討論能效,比如1.50 就意味著耗電1.5 兆瓦,實際功效1 兆瓦。
標準的風冷數據中心,其PUE 在1.3 ~ 1.5 之間。一些專有的風冷數據中心,可能會低至1.07 。液冷的數據中心,也在1.05 ~ 1.10 PUE 左右(具體取決於不同的構造)。
我們今年在超算環境中見到的獨立2PILC 單元的最低PUE 值為1.028,但若成本僅為標準風冷機架的1 / 10,相信還是有不少企業願意去採用的。