從散熱到感知:感測器在AI伺服器的新角色
- 2025/09/19
- 1059
- 50
隨著AI晶片功耗不斷攀升,伺服器散熱已成為決定算力邊界的關鍵課題。傳統氣冷方案難以因應動輒上千瓦的熱設計功耗,液冷因而成為高效能運算伺服器的必然選擇。然而,液冷系統亦伴隨漏液、流量異常等潛在風險,可能導致伺服器短路或非計畫性停機。為此感測...
隨著AI晶片功耗不斷攀升,伺服器散熱已成為決定算力邊界的關鍵課題。傳統氣冷方案難以因應動輒上千瓦的熱設計功耗,液冷因而成為高效能運算伺服器的必然選擇。然而,液冷系統亦伴隨漏液、流量異常等潛在風險,可能導致伺服器短路或非計畫性停機。為此感測...