AI 運算需要大量電力,美國研究團隊目前已開發出一種技術,可將 AI 處理所需能源降低至少 1,000 倍。
根據明尼蘇達大學雙城分校研究人員發表的論文,在目前 AI 運算中,資料會在處理資料的元件(邏輯)與儲存資料的地方(記憶體 / 儲存空間)之間傳輸,這種不斷來回穿梭的資訊,將消耗多達 200 倍的計算能量。
因此,研究人員轉而採用計算隨機存取記憶體(CRAM)來解決這個問題。研究團隊開發的 CRAM 將高密度、可重新配置的自旋電子記憶體運算基板放置於記憶體單元中。
這與三星 PIM 技術等現有記憶體內處理解決方案不同,三星解決方案將處理運算單元(PCU)置於記憶體核心內。資料仍需從記憶體單元傳送至 PCU,再從 PCU 傳回資料,只是傳送距離較短。
如果使用 CRAM,資料從未離開記憶體,而是完全在電腦的記憶體陣列中進行處理。研究團隊指出,這讓執行AI 運算應用程式的系統,在能源消耗上的改善比最先進解決方案高 1,000 倍。
此外,在另一項用於訓練 AI 系統辨識筆跡的測試,CRAM 能效比使用 16 奈米技術的近記憶體處理系統高出2,500 倍,速度則高出 1,700 倍。
目前這項論文發表在《自然》(Nature)同行評審期刊《npj 非常規計算》(npj Unconventional Computing)上。研究團隊已根據這項技術申請數項專利,計畫與半導體相關廠商合作,提供大規模示範並製造硬體,協助推進 AI 功能。
(首圖來源:shutterstock)