人工智慧與神經科學之間的距離,可能比外界想像得更近。近期多篇研究與一篇評論都指向同一個方向:若要打造更強大的 AI,理解人類大腦或許是關鍵一步。
首先,在語言理解上,研究人員透過腦電描記術分析受試者聆聽長篇 Podcast 的過程,發現大腦處理語意的方式,與大型語言模型的分層結構相當接近。研究指出,語言訊號並非一次被完整理解,而是隨著時間逐步展開;AI 模型的早期層較偏向基礎詞彙特徵,深層則整合語境與更高階意義。這種階段性變化在大腦語言區域中也能觀察到,尤其是布若卡氏區(Broca’s area)等高階語言區反應更明顯。團隊並已公開完整神經紀錄與語言特徵資料集,供後續研究使用。
另一方面,針對記憶形成的研究也出現新進展。另一組研究發現,AI 模型的記憶處理機制,與人類海馬迴的記憶鞏固過程具有相似性。研究者將人腦中與學習、記憶形成相關的 NMDA 受體概念帶入 Transformer 模型,結果顯示,類似「閘門」的機制可影響模型的長期記憶表現,且調整相關參數後,AI 的記憶能力甚至能得到提升。研究團隊認為,這說明神經科學知識可用來解釋並改進 AI 的學習方式。
這些發現也呼應一篇於今年 4 月 5 日左右發表的評論文章所提出的核心觀點:相較於目前 AI 產業在算力、資料中心與基礎設施上的巨額投入,全球對大腦研究的資源配置仍然明顯不足。文章指出,幾家大型科技公司近年投入 AI 基礎設施的金額高達數千億美元,而大型腦科學計畫的規模仍小得多。作者認為,人類大腦是已知宇宙中唯一證明過的通用智慧系統,若能更深入理解其運作原理,將有機會為 AI 帶來連續學習、更高能源效率,以及生成真正新知識的能力。
文章同時點出,現有 AI 在連續學習上仍受「災難性遺忘」困擾,難以像人腦一樣在吸收新知的同時保留舊知;在能源效率上,人腦約以 20 瓦運作,卻能完成遠超今日 AI 的認知任務;在創新能力上,現代大型模型主要依賴既有資料,仍難以像人類一樣產生真正突破性的原創概念。作者因此主張,與其只是一味擴充現有 AI 架構,不如更積極投資腦科學,尤其是連接組等基礎研究,做為下一代 AI 的設計藍圖。
(首圖來源:pixabay)






