從散熱到感知:感測器在AI伺服器的新角色 2025/09/19 485 29 隨著AI晶片功耗不斷攀升,伺服器散熱已成為決定算力邊界的關鍵課題。傳統氣冷方案難以因應動輒上千瓦的熱設計功耗,液冷因而成為高效能運算伺服器的必然選擇。然而,液冷系統亦伴隨漏液、流量異常等潛在風險,可能導致伺服器短路或非計畫性停機。為此感測... 張淵菘 #晶片功耗 #AI晶片 #算力 #液冷系統 #資料中心