黃仁勳:GB200 生成 AI 內容速度比中版晶片快 60 倍

作者 | 發布日期 2025 年 02 月 27 日 14:00 | 分類 GPU , 半導體 , 晶片 line share Linkedin share follow us in feedly line share
黃仁勳:GB200 生成 AI 內容速度比中版晶片快 60 倍

輝達(Nvidia Corp.)執行長黃仁勳(Jensen Huang)透露,次世代 AI 因採取「一步步思考出最佳答案」的推理方式,需要的算力比舊款 AI 模型多 100 倍。

CNBC報導,黃仁勳26日在公布財報後受訪提到,DeepSeek的「R1」、OpenAI的「GPT-4」和xAI的「Grok 3」都是使用上述推理模式。

DeepSeek號稱能以極低成本訓練出先進AI模型,衝擊輝達股價在1月27日當天重挫17%,至今還未收復失土。投資人擔憂,美國科技巨擘未來對AI基礎建設的投資意願可能會受影響。

黃仁勳不這麼認為,直指DeepSeek帶動推理式AI普及,這種模型需要更多晶片。他說,「DeepSeek表現非常出色,因為它將世界級的推理模型直接開源」。

黃仁勳表示,受到出口禁令影響,中國市場對輝達的營收占比已經萎縮一半,且公司在中國還面臨了華為等對手的競爭壓力。

黃仁勳並提到,輝達目前在美國販售的GB200平台,其生成AI內容的速度比該公司專為中國設計的晶片版本快了60倍。

KeyBanc分析師John Vinh最近曾透過研究報告指出,AI新創DeepSeek橫空出世激勵中國雲端業者的GPU需求,加上華為「Ascend AI」ASIC供給有限,讓中國雲端服務提供商對輝達「H20」繪圖處理器(GPU)的需求大幅跳升。

(本文由 MoneyDJ新聞 授權轉載;首圖來源:輝達

延伸閱讀:

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》