AI 也會「腦殘」?新研究揭露 LLM 長期看社群貼文,閱讀理解力竟下滑 30%

作者 | 發布日期 2025 年 10 月 27 日 8:10 | 分類 AI 人工智慧 , 數位內容 , 社群 line share Linkedin share follow us in feedly line share
Loading...
AI 也會「腦殘」?新研究揭露 LLM 長期看社群貼文,閱讀理解力竟下滑 30%

根據德克薩斯農工大學、德州大學奧斯汀分校和普渡大學的最新研究,大型語言模型(LLM)在長期接觸低品質的社群媒體文本後,會出現類似人類「腦腐化」(brain rot)的現象,導致認知能力下降。研究指出,當模型持續接收短小且病毒式的內容時,推理能力降低 23%,長期上下文理解能力下降 30%。

研究中提到的「思考跳過」現象,意味著AI模型在回答問題時越來越無法制定計畫,或是省略了推理過程中的某些部分。這一現象在使用Meta的開源Llama3和阿里巴巴的Qwen LLM模型時尤為明顯,這些模型在接受低品質訓練後,顯示出更高的自戀和心理病態特徵。

即使在使用高品質人類撰寫的數據進行「指令調整」後,這些模型仍然顯示出持續的負面影響,推理品質與其基線相比存在顯著差距。研究人員警告,由於AI模型的訓練依賴於主要來自網路,這些模型不可避免地會接觸到低品質內容,這可能對整個技術造成風險。

因此,研究人員建議AI公司應停止僅儲存大量數據,而應專注於用於訓練LLM的數據品質。他們還建議定期對模型進行「認知健康檢查」,以避免潛在的安全危機。持續的腦腐化效應需要未來的研究來仔細策劃數據,以避免在預訓練中造成認知損害。

(首圖來源:pixabay

延伸閱讀:

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》