AI 模型需耗用大量 GPU,推動載板長期需求

作者 | 發布日期 2023 年 03 月 22 日 14:30 | 分類 AI 人工智慧 , 半導體 , 零組件 line share follow us in feedly line share
AI 模型需耗用大量 GPU,推動載板長期需求


生成式 AI 風起雲湧,也帶來各式 AI 應用落地,而 AI 伺服器以及 GPU 伺服器預估將成為 ABF 載板需求長期動能,因產品需求的 ABF 載板層數高、面積大,需要消耗更多 ABF 載板產能,相關廠商欣興、南電以及景碩可望受惠,但短期來說,載板上半年遇逆風,盼第二季陸續落底。

據市調機構集邦科技表示,要處理1800億參數的GPT-3.5大型模型,需要的GPU晶片數量高達2萬顆,未來GPT大模型商業化所需的GPU晶片數量甚至會超過3萬顆。

業內人士表示,以NVIDIA H100 或 A100晶片來說,皆採用高階載板,載板面積估可達65×65mm、層數約在10層以上,製作難度高,需消耗更多產能,若AI伺服器趨勢加速往上,有助ABF產業供需提早回到健康水準。

而以近期市況來說,載板廠商上半年仍是保守,客戶仍在積極去化庫存,主要除了PC/NB市場仍疲弱之外,大型數據中心對於伺服器的需求量下修,北美四大雲端服務的提供商仍在緊縮支出甚至擴大裁員,對於新伺服器的建置採購也放緩,另外,對於新平台的導入也延後,造成上半年整體ABF需求不如預期。

法人即表示,以今年ABF載板是轉為供過於求的狀況,相對於過去兩年選擇載板首選以ABF占營收比重高者來說,今年則需要優先選擇可以生產高階ABF板(層數高、尺寸大)的廠商,因在市況動搖時,中低階ABF載板也面臨降價的壓力,門檻較高的高階板,相對價格也較有支撐。

(本文由 MoneyDJ新聞 授權轉載;首圖來源:pixabay