
中國 2024 年在 AI 晶片市場陷入複雜局面,有些領域產能過剩,但先進 AI 開發所需的高品質運算資源卻面臨短缺狀況。
據《富比士》報導,中國各地都有大量閒置的資料中心,內部裝滿全球最先進 GPU,等著被使用,但同時中國 AI 新創 DeepSeek 卻稱其運算受限,缺乏建立下一代人工智慧模型所需的能力,為什麼會有這些差異呢?
在面臨美國出口管制時,中國企業、地方政府及中國科技巨頭能做的就是「囤貨」,他們瘋狂採購 NVIDIA 晶片,興建 AI 資料中心,組建龐大的算力集群,以應對未來可能的需求。同時,中國買家試圖繞過美國管制,透過第三方管道訂購 NVIDIA 最新 AI 晶片,包括全新 Blackwell 系列。然而,在這場對 AI 未來的狂熱準備中,許多人都忘記最基礎問題:如何運用這些算力?
中國 AI 基礎設施困境:算力過剩、效率低落、需求轉變
報導指出,中國 2024 年至少增加 100 萬顆 AI 晶片的運算能力,但這些部署卻沒考慮效率,因此被分散在不同品質的資料中心,導致高算力晶片被放在需求很低的地方,且政府在沒明確策略下一窩蜂建立基礎設施,導致大量的「低品質運算」資料中心出現。
此外,時機也是一個問題。2023 年各界掀起開發 AI 基礎模型的熱潮,但到 2024 年,許多計畫陷入停滯。一些公司意識到自己缺乏足夠資源來競爭,選擇放棄;另一些則轉向 AI 應用開發,而非繼續專注於基礎 AI 研究。結果,對於 AI 模型訓練的需求(這個最消耗算力)開始下滑。
同時,AI 推理需求則大幅上升,而且是與 AI 訓練不同的基礎架構。也因此,中國在 2023 年所建設的基礎設施主要是為訓練而打造,而 2024 年市場需求轉變,導致 AI 訓練算力過剩,而 AI 推理算力卻嚴重短缺。
報導指出,第三個問題在於數與量的評估錯誤,雖然有些公司購買足夠的 GPU,理當可以組建大型 AI 運算中心,但實際上卻將這些晶片部署在多個小型、彼此獨立的資料中心。由於缺乏高速網路連接和合適的軟體架構,這些 GPU 無法發揮真正的大規模運算能力,無法形成一個完整、統一的 AI 訓練系統。對於中國許多 AI 叢集來說,這些 GPU 的存在更像是「金融資產」,而非真正能推動技術進步的研究工具,這也是典型的「將數量誤認為能力」的案例。
中國如何從低效建設走向技術突破?
雖然中國政府並未對這些低效現象視而不見,並開始限制新資料中心的建設,除非這些設施符合特定的地理位置與基礎設施標準,並積極推動雲端運算、鼓勵企業共享算力,而非各自囤積 GPU 叢集。
報導認為,美國 19 世紀迎來鐵路熱潮,各家公司爭相鋪設鐵軌但有些鐵路最終淪為無用的投機產物,同樣的情況也可能發生在中國的 AI 基礎設施上。不過,今日的產能過剩或許正是未來技術突破的基礎,雖然目前許多GPU 閒置未被有效利用,但仍代表一種對 AI 普及化的投資。
也因此,報導認為,只有能適應變化的企業,可整合運算資源、轉向推理應用、優化部署策略才能在市場脫穎而出;無法調整的企業則可能淪為中國 AI 崛起歷程中的註腳。
(首圖來源:Pixabay)