CRAM 新記憶體技術亮相!將 AI 處理耗能需求降低一千倍以上

作者 | 發布日期 2024 年 07 月 30 日 8:11 | 分類 AI 人工智慧 , 記憶體 line share Linkedin share follow us in feedly line share
CRAM 新記憶體技術亮相!將 AI 處理耗能需求降低一千倍以上

AI 運算需要大量電力,美國研究團隊目前已開發出一種技術,可將 AI 處理所需能源降低至少 1,000 倍。

根據明尼蘇達大學雙城分校研究人員發表的論文,在目前 AI 運算中,資料會在處理資料的元件(邏輯)與儲存資料的地方(記憶體 / 儲存空間)之間傳輸,這種不斷來回穿梭的資訊,將消耗多達 200 倍的計算能量。

因此,研究人員轉而採用計算隨機存取記憶體(CRAM)來解決這個問題。研究團隊開發的 CRAM 將高密度、可重新配置的自旋電子記憶體運算基板放置於記憶體單元中。

這與三星 PIM 技術等現有記憶體內處理解決方案不同,三星解決方案將處理運算單元(PCU)置於記憶體核心內。資料仍需從記憶體單元傳送至 PCU,再從 PCU 傳回資料,只是傳送距離較短。

如果使用 CRAM,資料從未離開記憶體,而是完全在電腦的記憶體陣列中進行處理。研究團隊指出,這讓執行AI 運算應用程式的系統,在能源消耗上的改善比最先進解決方案高 1,000 倍。

此外,在另一項用於訓練 AI 系統辨識筆跡的測試,CRAM 能效比使用 16 奈米技術的近記憶體處理系統高出2,500 倍,速度則高出 1,700 倍。

目前這項論文發表在《自然》(Nature)同行評審期刊《npj 非常規計算》(npj Unconventional Computing)上。研究團隊已根據這項技術申請數項專利,計畫與半導體相關廠商合作,提供大規模示範並製造硬體,協助推進 AI 功能。

(首圖來源:shutterstock)

延伸閱讀:

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》