輝達(NVIDIA)與 Meta 簽訂一項多年合作協議,共同建構超大型的全球 AI 基礎設施,根據協議,Meta 將採購數百萬顆輝達 AI 晶片,涵蓋現有的 Blackwell 晶片,以及即將上市的 Rubin 晶片,為全球數十億用戶提供更強大的 AI 與個人化推薦服務。
輝達並未透露合約金額,而 Meta 將大規模導入輝達基於 Arm 架構的 Grace 與下一代 Vera 中央處理器,預計 2027 年前實現 Vera 的大規模採用,並將部署於 Meta 自家資料中心,更將結合輝達雲端合作夥伴,如 CoreWeave 和 Crusoe,打造具備極佳擴展性的統一運算架構。
輝達執行長黃仁勳表示,沒有人能以 Meta 的規模部署人工智慧,並將前沿研究與工業規模基礎設施整合,為全球數十億用戶提供更強大的 AI 與個人化推薦服務,未來透過跨 CPU、GPU、網路與軟體的深度共創設計,輝達將協助 Meta 的研究人員與工程師奠定下一個 AI 前沿基礎設施。
輝達超大規模與高效能運算部門總經理巴克(IanBuck)表示,Meta 擴大導入 Grace CPU 將顯著提升「每瓦效能」,並證明在執行資料庫等常見任務時,Grace CPU 能將耗電量降低一半,而 Meta 在初步測試下一代 Vera 處理器後,對其帶來的效能提升也抱持極高的期待。
輝達公布這項消息之際,正值 Meta 研發自家 AI 晶片,並與 Google 洽談租用張量處理單元 (TPU) 來執行 AI 工作,但分析師認為,輝達 AI 領先地位難以被取代,因輝達 GPU 能用於多種不同的 AI 應用,但像 Google 的 TPU 和亞馬遜的 Trainium 處理器的應用範圍則較為有限。
(首圖來源:Unsplash)






