輝達計畫提高明年 H100 產量至少兩倍,需先克服四產能瓶頸

作者 | 發布日期 2023 年 08 月 25 日 11:08 | 分類 GPU , 晶片 , 處理器 line share follow us in feedly line share
輝達計畫提高明年 H100 產量至少兩倍,需先克服四產能瓶頸


知情人士透露,輝達一季內透過資料中心運算 GPU 賺取超過 100 億美元,計畫明年產能至少拉高兩倍,若成功達成目標,可能會帶來難以置信的營收。

外媒《金融時報》報導,輝達 H100 晶片需求量非常大,三名知情人士表示,輝達打算將 GH100 產量增加至少兩倍,明年 H100 出貨量 150 萬至 200 萬顆,較今年 50 萬顆大幅增加。

輝達 CUDA 架構專為 AI 和 HPC 工作負載訂製,因此有數百種應用程式只能在輝達運算 GPU 運行。雖然亞馬遜和 Google 都有訂製 AI 處理器,AI 訓練和推理用,但仍必須購買大量輝達 GPU。

然而,想增加輝達 H100、GH200 Grace Hopper 及基礎產品供應並不容易,輝達想增加 GH100 產能,必須先擺脫幾個瓶頸。

首先,必須 GH100 尺寸達 814 平方公釐,因此很難大量生產。雖然現在產品產量已相當高,但仍需從台積電取得大量 4N 晶圓供應,才能讓 GH100 產量提高兩倍以上。報導指出,台積電和輝達每 300 公釐晶圓最多可生產 65 個晶片。

因此,若要製造 200 萬顆晶片,需 3.1 萬片晶圓,台積電 5 奈米晶圓總產能每月約 15 萬片,且產能還須由輝達、AMD、蘋果等共享。

再來,GH100 依賴 HBM2E 或 HBM3 記憶體,並使用台積電 CoWoS 封裝,輝達也需確保供應正常,台積電也在努力滿足 CoWoS 封裝需求;第三,基於 H100 設備使用 HBM2E、HBM3 或 HBM3E 記憶體,輝達必須從美光、三星和 SK 海力士等公司購入足夠 HBM 記憶體。

最後是輝達 H100 顯卡或 SXM 模組必須安裝在某個地方,輝達必須確保合作夥伴的 AI 伺服器也有兩到三倍輸出。如果輝達能滿足全部 H100 GPU 需求,明年營收會相當可觀。

(首圖來源:shutterstock)

延伸閱讀: