DeepSeek-V3.2-Exp 發表!推理效率提效,API 價格至少砍半

作者 | 發布日期 2025 年 09 月 30 日 18:59 | 分類 AI 人工智慧 , 中國觀察 line share Linkedin share follow us in feedly line share
Loading...
DeepSeek-V3.2-Exp 發表!推理效率提效,API 價格至少砍半

中國 DeepSeek(深度求索)邁向下一代 AI 歷程中,更新一款實驗版本「DeepSeek-V3.2-Exp」。

DeepSeek 透過 Hugging Face 平台介紹最新 DeepSeek-V3.2-Exp,它採用一種名為 DeepSeek Sparse Attention(DSA)新技術,作為邁向新一代架構的中間步驟。

DeepSeek 今年以推理模型 DeepSeek-R1 震驚矽谷,計劃推出新產品鞏固在中國 AI 產業的領先地位。DeepSeek-V3.2-Exp 在 DeepSeek-V3.1-Terminus 基礎上加入一種稀疏注意力機制,即 DSA,針對長篇文本的訓練和推理效率進行改善與驗證。

DeepSeek-V3.2-Exp 採用 DSA,凸顯 DeepSeek 尋求降低訓練成本與難度的方法,尤其是被限制取得 NVIDIA 晶片資源的情況下。DeepSeek 創辦人梁文鋒今年以此主題與他人合著一篇論文,闡述開發者如何將軟體創新與校準後的硬體結合,以減少運算需求。

降低成本讓 DeepSeek 的模型具競爭力,DeepSeek 將 API 價格砍半甚至更多,加入其他中國新創公司以大幅降價吸引開發者的行列。值得一提的是,中國 AI 晶片廠商華為與寒武紀宣布,產品將支援 DeepSeek 最新模型更新。

DeepSeek 也表示,最新模型支援 FP8 精度,同時正在努力支援 BF16。模型要處理數以百萬的數值,使用像 FP8 與 BF16 這類較小的格式可在速度與精度之間取得平衡,在受限硬體上執行大型語言模型變得更容易。雖然 FP8 準度不高,但對許多 AI 任務而言很有用,BF16 則被認為訓練模型時更為精確。

▲ 採用 DSA,使 DeepSeek-V3.2-Exp 提高長篇文本性能並降低運算成本。

(首圖來源:shutterstock)

延伸閱讀:

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》