在一項最新研究中,科學家發現人類的大腦在無意識中能夠辨別 AI 生成的聲音與人類聲音之間的差異,儘管參與者在意識層面上無法做到這一點。這項研究由天津大學和香港中文大學的研究團隊進行,並於今年 3 月 9 日發表在《eNeuro》期刊上。
研究中,30名參與者被要求辨識真實聲音與合成聲音的區別。儘管經過短暫的訓練,參與者在行為表現上仍然無法準確識別聲音,顯示出人類在現實世界的深偽檢測任務中存在困難。然而,透過腦電圖(EEG)監測的神經活動卻揭示了另一個故事:參與者的大腦在無意識中已經開始學習如何區分這些聲音。
研究顯示,參與者在聽到聲音後的55毫秒、210毫秒和455毫秒時,大腦對合成語音的反應開始出現差異,這些都是早期的處理階段,遠在意識思考之前。這表明,儘管人們無法意識到這些差異,但他們的聽覺系統已經在默默地進行著工作。
進一步的聲學分析顯示,真實聲音和AI聲音在5.4到11.7赫茲的調變範圍內存在實際的物理差異,這個範圍與我們的大腦如何追蹤快速語音細節(如音素和音節起始)有關。即使是聽起來非常自然的AI聲音,似乎也無法完美地捕捉這些微小的變化。
這項研究的結果帶來了好消息,表明人類並非對偽造聲音詐騙無能為力,生物學的硬體運作良好。我們只需要學會如何利用它。未來的工具可能會教導人們如何聆聽他們的大腦已經在檢測的特定線索,而不是僅提供「要小心」的一般建議。
- Your brain can spot AI voices even when you can’t
- Can Humans Tell AI-Generated Speech Apart from Human Voices?
(首圖來源:pixabay)






