微軟據報正開發可將 NVIDIA CUDA 模型轉譯為 AMD ROCm 架構的工具套件(toolkits),讓開發者能在 AMD GPU 上直接執行原本專屬 CUDA 的 AI 模型。此舉被視為繞開輝達軟體生態壟斷、開啟 AI 推論市場「第二條路」的重要一步。
根據外電報導,微軟內部團隊已打造多項工具,可自動將 CUDA 模型轉換為 ROCm 相容版本,使 Azure 雲端伺服器可同時支援 AMD GPU 加速運算。這項技術原理類似於「執行期相容層(runtime compatibility layer)」,能即時攔截並轉譯 CUDA API 呼叫,無需重新編譯原始碼。
微軟工程團隊成員透露:「我們開發了一些工具,能讓 CUDA 模型在 AMD GPU 上運作,例如 300X 系列。目前也正與 AMD 合作,針對新一代 400X、450X GPU 進一步優化效能。」
輝達長期壟斷 AI 加速市場的關鍵,在於完整的 CUDA 軟體生態系。儘管 AMD 推出的 ROCm 平台持續進化,但仍因 API 覆蓋度與開發支援不足,難以取代 CUDA 的主導地位。
然而,隨著微軟推論工作負載快速上升,公司亟需更具成本效益的方案。AMD AI 晶片相較昂貴的輝達 GPU,能大幅降低雲端服務成本,成為微軟布局的關鍵選項。
目前微軟的轉譯工具仍屬內部測試階段,預期未來可與 Azure 平台整合,支援多架構 AI 加速環境。若該工具成功普及,將讓現有 CUDA 模型能在非輝達平台上運行,進一步削弱 CUDA 在 AI 軟體堆疊中的獨占地位。
業界分析指出,這意味著 CUDA 生態系正出現可行的替代路線,將為 AI 推論市場帶來更高的靈活性與價格競爭力。未來,軟體相容性與轉譯效率將是決定 AMD 能否真正突破 CUDA 防線的關鍵。
(首圖來源:AMD)






