在 Deepseek 掀起全球科技圈一陣波瀾後,各界都試圖從深度求索公布的文件中,找出他們如何成功的方式,韓國大宇未來資產的分析報告指出,Deepseek 並未使用 Nvidia 的 CUDA 編寫,而是透過大量精密調整的併行線程執行代碼,達成採用較低規格的硬體產出高效能 AI 模型表現。
OpenAI 的 ChatGPT 引爆全球人工智慧熱潮,除了 Nvidia 顯示晶片的算力效能之外,CUDA 架構也是重要腳色之一,因此目前美國各大科技巨頭開發的 AI 產品,大多是以 CUDA 架構為基礎進行開發。
但是在 Deepseek 橫空出世後,號稱使用效能較低的 H800 晶片卻能產出與 ChatGPT 相等效能,使各界對於深度求索如何辦到感到好奇,韓國大宇未來資產在研究該公司文件後指出,Deepseek 並未像其他 AI 模型一樣採用 CUDA 架構,而是透過併行線程執行代碼(Parallel Thread Excution, PTX)構成。
PTX 是 Nvidia 為 GPU 產品開發的一種中間語言(Intermediate Language),是 CUDA 這類高階 GPU 程式語言和低階機器碼之間的橋樑,而 PTX 作為一種 Close-to-metal 的指令集架構,比起 CUDA 來說可讓工程師進行更多,更細緻的最佳化調整。
不過透過 PTX 雖然可以進行更多專門的最佳化調整,但缺點是很難維持穩定,需要人力大量除錯,因此也顯示出 Deepseek 工程師在設計過程中的功力。
而 Deepseek 的出世,也打破了矽谷巨頭在人工智慧競爭中的軍備競賽局面,AI 開發或許不一定非得追求最強晶片和龐大晶片數量,透過精細的程式設計也能讓低規設備跑出高效結果,這可能也是前日美國科技股市震盪的主要原因。
(首圖來源:极客湾Geekerwan, CC BY 3.0, via Wikimedia Commons)