新研究指出,大腦理解口語是個「逐步處理」過程,竟與 AI 語言模型運作方式非常相似。受試者聆聽口述故事時,同步記錄大腦活動,發現較晚期大腦反應階段,會對應 AI 系統較深層處理層,尤其布若卡氏區(Broca′s area)等眾所周知的語言區域更是明顯。這些結果質疑了長期強調語言理解必須依賴固定規則的理論,團隊也釋出新公開資料庫,為研究「大腦如何形成意義」提供新工具。
論文發表於《Nature Communications》期刊,由希伯來大學 Ariel Goldstein 博士領銜,合作者包括 Google Research 的 Mariano Schain 博士,以及普林斯頓大學的 Uri Hasson 教授與 Eric Ham。研究團隊揭示出乎意料相似性:人類理解語言,與現代 AI 模型處理文字,竟然高度雷同。
研究員使用顱內皮層腦電圖(electrocorticography)記錄受試者聆聽一段 30 分鐘 Podcast 時的大腦活動,追蹤處理語言時大腦活動的變化,發現大腦遵循有結構的處理序列,與 GPT-2、Llama 2 等大型語言模型的多層設計高度對應。
當我們聽別人說話,大腦不是一次就知道全部意思,而是每個字都須經一連串神經處理步驟。Goldstein 與同事示範,步驟會依序展開,與 AI 模型處理語言步驟呼應。AI 早期層主要聚焦字詞基本特徵,較深層再結合語境、語氣與更多意義。
人類大腦活動也是相同模式:早期神經訊號對應 AI 模型較淺層處理階段,較晚期大腦反應對應模型較深處理層。時間對應在較高階語言區域(如布若卡氏區)特別明顯;反應出現較晚,卻與 AI 模型較深層表徵最吻合。
Goldstein 博士表示:「最驚訝的是,大腦逐步展開意義的方式,竟然這麼接近大型語言模型轉換序列的步驟。儘管兩者構造完全不同,但似乎都朝相似、一步步建立理解的過程靠近。」
此研究顯示,人工智慧不僅能產生文字,也能幫助科學家更深入了解大腦如何創造意義。多年來,語言常視為靠固定符號與嚴密階層結構的系統,這次結果提出挑戰,指向更具彈性、以統計為基礎的過程:意義不是一次成形,而是經過語境逐漸浮現。
研究員也檢驗傳統語言學元素,如音位(phonemes)與語素(morphemes)。這些經典特徵,對解釋大腦當下活動的效果,都不如 AI 模型產生的語境表徵。這又支持一觀點:大腦理解語言時,比起嚴格的語言「積木」,更依賴連續流動的語境資訊。
團隊已將完整大腦神經紀錄與語言特徵資料公開。這個開放資料庫讓全球研究者能比較不同語言理解理論,並建立更貼近人類心智運作方式的AI模型。
- The human brain may work more like AI than anyone expected
- Connecting Language and (Artificial) Intelligence: Princeton’s Tom Griffiths
- Mind and Machine: A Lethal Cognitive Cocktail
- The Complexity Transition: Why Human Intelligence Must Redefine Itself in the Age of Artificial Cognition
- Creative talent: has AI knocked humans out?
- Artificial Intelligence and Problem Solving: The New Era of Human Inge
(首圖來源:shutterstock)






