OpenAI 近期宣布,目標在 2030 年前將 AI 計算能力擴張至 30GW,顯示其在生成式 AI 時代下正加速推進算力基礎建設布局;其中,已有約 8GW 算力來源正在規劃。
In January 2025, we committed to generating 10GW of compute and have already identified over 8GW of that. Now, we’re planning for 30GW of compute by 2030. A milestone that scales with the rapidly accelerating demand for intelligent systems.
Image generated by @ChatGPTapp Images… pic.twitter.com/h6UMgG5UCV
— OpenAI Newsroom (@OpenAINewsroom) April 22, 2026
事實上,OpenAI 早在去年即啟動大規模基礎設施計畫「Stargate Project」,並攜手甲骨文與 SoftBank 等業者,規劃建置多座 AI 資料中心基地。根據當時規劃,Stargate 將整合包含德州 Abilene 旗艦基地與既有合作專案在內的算力資源,預計於三年內推進至接近 7GW 規模,並帶動超過 4,000 億美元投資;同時,公司亦曾提出在 2025 年達成 10GW 算力的中期目標。
在此基礎上,OpenAI 此次進一步將長期目標上修至 30GW,市場普遍認為,除持續擴建資料中心外,亦可能透過導入自研 AI 晶片與高頻寬記憶體(HBM)等技術,強化單位算力密度,以支撐大型模型訓練與推論需求。
不過,算力快速擴張亦面臨現實挑戰。近期 Stargate 計畫中,原先規劃於德州 Abilene 的 600MW 擴建案傳出取消,間接表示大型資料中心在電網接入與供電規劃上的限制。
業界指出,目前大型負載併網排隊(interconnection queue)壓力持續升高,電力公司審查趨嚴,加上部分在地社區對於用電與環境影響的疑慮,使部分資料中心項目面臨延後甚至中止風險。
在 AI 用電需求持續攀升的背景下,電力供應已逐漸成為制約算力擴張的關鍵因素。相較集中式大型資料中心模式,市場亦開始關注分散式電力與表後供電等方案,透過在地發電與能源調度機制,提升供電彈性與建置速度。
(首圖來源:Unsplash)






