
輝達(Nvidia Corp.)執行長黃仁勳(Jensen Huang)透露,次世代 AI 因採取「一步步思考出最佳答案」的推理方式,需要的算力比舊款 AI 模型多 100 倍。
CNBC報導,黃仁勳26日在公布財報後受訪提到,DeepSeek的「R1」、OpenAI的「GPT-4」和xAI的「Grok 3」都是使用上述推理模式。
DeepSeek號稱能以極低成本訓練出先進AI模型,衝擊輝達股價在1月27日當天重挫17%,至今還未收復失土。投資人擔憂,美國科技巨擘未來對AI基礎建設的投資意願可能會受影響。
黃仁勳不這麼認為,直指DeepSeek帶動推理式AI普及,這種模型需要更多晶片。他說,「DeepSeek表現非常出色,因為它將世界級的推理模型直接開源」。
黃仁勳表示,受到出口禁令影響,中國市場對輝達的營收占比已經萎縮一半,且公司在中國還面臨了華為等對手的競爭壓力。
黃仁勳並提到,輝達目前在美國販售的GB200平台,其生成AI內容的速度比該公司專為中國設計的晶片版本快了60倍。
KeyBanc分析師John Vinh最近曾透過研究報告指出,AI新創DeepSeek橫空出世激勵中國雲端業者的GPU需求,加上華為「Ascend AI」ASIC供給有限,讓中國雲端服務提供商對輝達「H20」繪圖處理器(GPU)的需求大幅跳升。