憑高效 AI 模型挑戰業界,研調機構這樣看 DeepSeek

作者 | 發布日期 2025 年 02 月 12 日 16:35 | 分類 AI 人工智慧 , 國際觀察 line share Linkedin share follow us in feedly line share
憑高效 AI 模型挑戰業界,研調機構這樣看 DeepSeek

調研機構 Counterpoint 今(12 日)指出 DeepSeek 近期推出 R1 與 V3 大型語言模型(LLMs)掀起業界熱議。兩款開源模型不僅展現卓越性能,在成本上更具顯著優勢,API 價格比ChatGPT o1 低達 96%,顛覆 AI 產業過往對高效能模型須依賴巨額資金與算力堆砌的認知。

隨著 DeepSeek 和 Meta 等公司推動開源 AI,市場對封閉式專有模型(如 OpenAI)形成更大挑戰。Counterpoint 指出,開源 LLMs 的崛起正在改變AI生態系,使競爭格局從技術領先轉向成本與可用性競爭。值得關注的是,DeepSeek 的成功不僅涉及技術創新,也帶入地緣政治因素,其發布時機與美國5000億美元「星門計畫」(Stargate Project)的宣布相近,耐人尋味。

業內消息傳出,DeepSeek 訓練其模型僅使用約 2,000 至 2,048 張 NVIDIA H800 GPU,並額外獲取約 1 萬張 A100 GPU,整體訓練預算約 600 萬美元。相比 OpenAI 與 Anthropic 等競爭對手動輒投入超過 1 億美元,DeepSeek 的成本控制策略確實展現了 AI 訓練的新可能性。

Counterpoint 認為,儘管 DeepSeek 在成本與技術上展現突破,其訓練成本的真實性仍受市場質疑,業界亦關注其是否接受政府補助或未披露的資源支持。不過,DeepSeek 的成功已促使產業重新審視 AI 發展模式,可能對半導體與資料中心市場帶來長期影響。

研調機構 TrendForce 指出,在 DeepSeek 驅動下,CSP 業者料將更積極發展成本較低的自有 ASIC 方案,並把重心從 AI 訓練轉往 AI 推論,預估將逐步推升 AI 推論伺服器占比至接近 50%。未來 GPU 仍將支持各種AI演算法發展,但「分眾化」情況將更明顯,持續發展大型演算法的 CSP 業者和更重視成本考量的邊緣企業客戶將各有需求。

TrendForce 指出,2024年全球 AI server出貨量受惠於 CSP、OEM 的強勁需求,年增幅度為 46%,而美國晶片禁令、DeepSeek 效應、GB200/GB300 Rack 供應鏈整備進度等將成為影響 2025 年 AI server 出貨量的變數。

(首圖來源:Unsplash

延伸閱讀:

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》