輝達公司(Nvidia)今天公布最新數據,顯示其新一代人工智慧(AI)伺服器能讓中國兩款熱門模型在內的新型 AI 模型效能提升 10 倍。
路透報導,這項數據發布之際,AI產業重心正從輝達長期主導的「訓練AI模型」轉向「實際對數百萬用戶的應用上」,輝達在這一領域正面臨超微公司(AMD)、Cerebras等對手更激烈的競爭。
輝達釋出的數據著重於所謂的「混合專家」(mixture-of-expert)AI模型,這種技術透過將問題拆分給模型中的多個「專家」,大幅提升AI模型的運算效率。自從中國DeepSeek今年以效能突出的開源模型震撼全球,並展示這種模型今年初訓練時耗用輝達晶片數量少於競爭者後,讓這種技術爆紅。
自此之後,ChatGPT開發商OpenAI、法國AI新創公司Mistral、中國的月之暗面(Moonshoot AI)等業者也都採用混合專家技術。月之暗面今年7月也推出效能備受肯定的開源模型。
輝達表示,新一代AI伺服器是由72顆尖端晶片組成,並以高速連線相互串接,能讓月之暗面的Kimi K2 Thinking模型效能比前一代輝達伺服器提升10倍,對DeepSeek模型也有類似效益。
輝達指出,效能大幅提升,主要因伺服器內可容納更多晶片,以及晶片間高速連結,這些方面仍是輝達目前相對於競爭者的優勢。
輝達的競爭者超微也正積極研發類似產品,計劃明年推出以多顆強大晶片組裝的AI伺服器。
(首圖來源:輝達)






