新禁令衝擊,2023 年中國 CSP 高階 AI 伺服器需求占比降至 3%~4%

作者 | 發布日期 2023 年 10 月 19 日 10:13 | 分類 AI 人工智慧 , 中國觀察 , 半導體 line share follow us in feedly line share
新禁令衝擊,2023 年中國 CSP 高階 AI 伺服器需求占比降至 3%~4%


美商務部 17 日再次公布出口管制更新條款,規範半導體製造設備、HPC晶片(主要為 AI 晶片)等及實體清單企業。TrendForce 認為,半導體製造設備主要差異是將模糊地帶 NXT: 1980Di 納入管制,但之前 ASML 已申請過才正常出貨,故受更新影響暫不明顯,反而 HPC 晶片因禁令管制範圍擴張至 A800、H800 及 L40S,中國大型雲端業者(CSP)字節跳動、百度、阿里及騰訊(BBAT)的 NVIDIA 高階 AI 伺服器需求量將由約占整體 AI 伺服器 5%~6% 降至 3%~4%。

中國CSP短期將衝刺備貨,中長期加速投入AI晶片自研

需求面看,TrendForce認為,儘管中國CSP對高階AI伺服器需求被迫縮減,但短期可能促使BBAT緩衝期積極備貨庫存,NVIDIA也會設法將緊缺產能如H800先挪給中國客戶。長期看,美國2022年連續祭出AI晶片禁令,加速有規模或技術力的中國業者自研晶片趨勢,如阿里巴巴旗下平頭哥發展ASIC、華為投入昇騰系列發展本地生態系等。邊緣AI小型模型及推論晶片方面,相對效能需求較低,中國晶片業者平頭哥、寒武紀等亦有加速投入趨勢。

AI伺服器晶片商將另尋符合禁令新規AI方案,同時促成算力租賃模式發展

從供應面看,TrendForce預期AI晶片業者(NVIDIA、AMD等)亦會規劃符合美國禁令規定產品需求。將來新規驅動下,可能促晶片商發展更多元方案以因應全球地緣政治侷促變化,如發展更多TF16、TF32較中低階TFLOPS運算能力產品線, 或往較大單顆晶圓面積(die size)發展,以降低美國此波新禁令效能密度(Performance Density)需求。

此外,新禁令亦可能使中國主要客戶BBAT或學研實驗室單位,租用中國以外地區AI訓練運算資源模式,完成LLM模式基礎,另在中國完成小型模型訓練或最佳化或AI推論等應用。此也可能使NVIDIA更積極主推以A或H100 AI伺服器為基礎的DGX cloud訂閱租賃模式,拓展到L40S等其他雲端,以服務中國客戶,當然也能提供給其他潛在有地緣政治風險地區的客戶。

(首圖來源:Image by Freepik