解 AI 伺服器燃眉之急,傳 H100 明年產能至少拉高 3 倍

作者 | 發布日期 2023 年 08 月 23 日 15:00 | 分類 AI 人工智慧 , GPU , 伺服器 line share follow us in feedly line share
解 AI 伺服器燃眉之急,傳 H100 明年產能至少拉高 3 倍


市場傳出,輝達(Nvidia Corp.)計劃明(2024)年將「H100」AI 繪圖處理器(GPU)的產能拉高至少三倍以滿足需求。輝達 GPU 等零件短缺,嚴重衝擊伺服器產量。

英國金融時報23日報導,熟知輝達詳情的消息人士透露,該公司計劃將H100 AI處理器產能拉高至少三倍,預測明年的出貨量將介於150~200萬顆,遠多於今年的50萬顆。

根據報導,鴻海上週預測AI伺服器未來數年的需求都將非常強勁,但警告整體伺服器營收恐在今(2023)年下滑。聯想集團上週則公布第二季營收年減8%,主因雲端服務提供商(CSP)需求疲軟、AI GPU供給短缺衝擊伺服器營收。台積電7月曾預測,AI伺服器晶片需求未來五年每年有望成長近50%,但這無法抵銷經濟趨緩導致的全球科技市況減弱壓力。

凱基副總裁Angela Hsiang指出,美國CSP面臨的總體經濟環境充滿挑戰,AI伺服器內建的元件全部都得升級、價格變高許多。CSP雖然積極擴充AI伺服器,但當初擬定資本支出預算時根本沒有將之計算在內,這擠壓到其他支出。根據Counterpoint Research預測,今年全球CSP資本支出預料僅將成長8%,遠不如去年的接近25%。

Counterpoint分析師Brady Wang指出,除了輝達晶片短缺外,先進封裝及高頻寬記憶體(High Bandwidth Memory,HBM)產能短缺,也讓AI伺服器的產量受限。台積電雖計劃將CoWoS先進封裝產能倍增、供應輝達H100晶片所需,但同時警告供應鏈瓶頸至少要到明年底才有解。

(本文由 MoneyDJ新聞 授權轉載;首圖來源:達志影像)

延伸閱讀: