CSP 全面擴建 AI 資料中心,未來「耗電怪獸」正悄然孵化
巨量用電與龐大的晶片需求已不再只是 OpenAI 的課題。全球大型雲端服務供應商,包括 Microsoft Azure、Amazon AWS 與 Google Cloud,也正投入比以往任何時期更大規模的資料中心擴建。業界普遍預期,這些 CSP 在未來十年將與鋼鐵、水泥與煉油產業並列全球主要耗電者,其 AI 伺服器全年無休,以推論與訓練為核心的運算模式,使資料中心用電曲線呈現出前所未有的陡峭成長。
在這波 AI 電力競賽下,冷卻需求成為另一個被放大的環節。資料中心規模暴增,使得大量冷卻用水與設備能耗拉高城市負荷,也造成局部電網品質下降與電價波動。多個國家已警告,資料中心集中區域可能面臨電力緊縮,部分地區甚至提前限制用電或推遲新資料中心建案,以避免影響一般家庭與企業的供電品質。
AI 擴張重塑全球能源版圖,電力和資源真的夠用嗎?
隨著美國、中國、歐洲與東南亞等市場相繼投入 AI 基礎建設,科技競爭也逐漸演變成能源與資源競賽。報導指出,AI 用電增長速度可能在未來十年內超過再生能源新增速度,電力供需缺口、區域性停電風險與電網負載問題將成為新常態,各國政府也開始重新檢視資料中心與半導體廠的環評與電力分配策略。
在這股浪潮中,報告提出一個更根本的疑問:當矽谷 CEO 正不斷追求更大的模型、更高的算力與更密集的 GPU 部署時,除了思考「AI 還需要多少電」,更必須面對關於地球資源的問題——「自然資源究竟還能支撐多少人工智慧的擴張」。