記憶體大廠 SK 海力士近期對西班牙 RISC-V 晶片公司 Semidynamics 進行策略性投資,推動「以記憶體為中心的 AI 推論架構」,同時也讓這間西班牙公司映入大家眼簾。
Semidynamics 專注於開發高性能的 RISC-V 處理器 IP 與完整的 AI 解決方案,核心目標是提供比美國現有方案更具競爭力的歐洲替代選擇。雙方合作將聚焦於將 Semidynamics的架構與次世代記憶體技術進行最佳化,外界解讀將推進三奈米 AI 推論晶片的開發。
Semidynamics 目前與台積電合作進行 3 奈米流片(tape-out),而上述投資也將用於未來 tape-out 及系統層級開發,包括機架平台的建置。
Semidynamics 不只銷售晶片,而是提供包含硬體機架與完整軟體棧(Software Stack)的解決方案,確保產品能在資料中心環境中無縫運作。Semidynamics 執行長 Roger Espasa 透露,「如果不提供機架,只提供晶片,對資料中心人士是沒有吸引力的」因此 Semidynamics 會帶著完整機架方案進入市場。他也透露若有機會會繼續往 2 奈米邁進。
Semidynamics 力拚推第一款引導 Linux 的 AI 處理器
Semidynamics 最初以設計 IP 起步,核心目標是整合既有技術,打造完整的 AI 解決方案。在底層技術部分, 以 Gazzillion 技術讓運算引擎能有效處理距離較遠、延遲較高的記憶體資源。
隨著 AI 模型越來越大、上下文增加、AI Agent 啟動需要大量記憶體等「深度推理」變多,記憶體變得越來越重要。Roger Espasa 表示,目前產業普遍依賴 HBM,其效能極佳,但成本高昂且供應受限;反之,其他類型記憶體雖然成本較低,但存取速度較慢,若沿用傳統 GPU 架構,效能將難以發揮。 Semidynamics 的目標正是突破這個限制,讓系統能夠有效利用「非 HBM」記憶體,這也是 Gazzillion 技術的核心價值所在。
Espasa 指出,傳統 CPU 架構(如 Intel 或 AMD)高度依賴快取命中率,設計目標是讓約 95% 的資料存取都在快取中完成,但在 AI 工作負載下則失效,因此 NVIDIA 採用高速 HBM 來繞過快取瓶頸。而 Gazzillion 採取不同路徑,當資料不在快取中時,系統不會像傳統 CPU 一樣停頓等待,而是持續推進運算流程,透過架構層級的改變來隱藏記憶體延遲,從而在較慢記憶體條件下仍維持高效運作。
為了在資料中心實現「統一記憶體」(Unified Memory),Semidynamics 目標致力於讓 AI 系統更容易被編程, Espasa 認為,過去 30 年在 CPU 領域累積的統一記憶體與易用性經驗,並沒有真正延伸到 AI 架構中。當前 AI 生態更像是各種新創架構的拼貼,每個都試圖成為最佳解,但過度差異化往往導致軟體生態難以跟進。因此,透過 Gazzillion 技術,目標是在資料中心層級真正實現統一記憶體,並提供簡單且可延續的軟體環境。
Espasa 表示,Semidynamics 是最早投入 RISC-V 團隊之一,並且率先開發 RISC-V 向量單元(Vector Unit)。他也透露,甚至將會推出第一款引導 Linux 的 AI 處理器,使任何能在 Linux 上運行的軟體都能直接在 Semidynamics 的加速器上運行,「我們不打算為單一模型(如 Llama 或 ChatGPT)打造專用晶片,而是確保提供工具,以便人們可以發明新東西」。
樂見 TurboQuant 技術,AI 生態發展不會因壓縮技術改變
Semidynamics 的願景是以品牌「Atrevido」為起點,該品牌代表基於自家 IP 所打造的 SoC,並進一步向上延伸,整合成系統級架構。其中關鍵在於我們圍繞核心技術所建構的「記憶體系統」,這不僅是設計上的選擇,更是吸引 SK 海力士關注的重要原因。
Espasa 認為,「DeepSeek 時刻」之所以引發市場關注,是因為一個來自不同路徑的模型在短時間內改變了市場預期並造成一定程度的恐慌。但他認為,這類事件其實是必然會反覆出現的現象。未來不一定每六個月,但幾乎每一年都會有來自前沿實驗室、大學或其他研究機構的新突破模型出現。因此,公司必須把「可編程性」作為核心原則,確保無論 AI 技術如何演進,硬體架構都能持續跟隨與適配。
他進一步表示,在這樣的環境下,有許多變化正在被密切觀察。公司每天都高度關注記憶體市場的動態,同時也持續追蹤 AI 模型本身的演進,例如新的資料表示方式與量化技術的出現,甚至已經出現如 1.2-bit 這類極低精度模型。他認為,這些創新將持續推動硬體與軟體之間的協同演進。
談到 Google 最新快取壓縮技術 TurboQuant 時,Espasa 強調,任何能降低記憶體需求的技術本質上都是正面的,無論是 TurboQuant 還是其他類似技術,只要能減少記憶體壓力,都對整個產業有利。這類技術不會削弱對硬體的需求,反而可能促進模型規模的進一步擴張。當工具變得更有效率時,使用者通常不會減少使用,而是選擇「用得更多」,即使 TurboQuant 降低單位模型的記憶體需求,實際結果往往是模型變得更大、應用場景更多,整體記憶體消耗並不會下降。從這個角度來看,AI 生態的發展路徑並不會因壓縮技術而改變。
他也補充,即便未來出現更多中小型模型,或企業開始部署多個 Agent 系統,記憶體需求依然會持續擴張。因為一旦從單一模型轉向多 Agent 架構,即使每個模型較小,整體系統的記憶體與運算需求仍會快速累積。因此,無論是模型變大、還是 Agent 數量增加,本質上都會推動對記憶體與基礎設施的長期需求成長,形成對整個產業都有利的擴張循環。
Semidynamics 已從歐洲及西班牙的創新計畫中獲得 4,500 萬歐元資金,用於建構完整的AI基礎設施平台。
Semidynamics 成立於2016年,總部位於巴塞隆納,專注於開發以記憶體為核心的 A I基礎設施,並採用 Gazzillion 記憶體子系統技術,旨在解決所謂的「記憶體牆」問題,即處理器速度與記憶體頻寬之間的差距。
(首圖來源:科技新報)






