語言天賦不再是人類專屬?新研究揭示 LLM 具備驚人的規則推斷力

作者 | 發布日期 2025 年 12 月 15 日 11:30 | 分類 AI 人工智慧 , ChatGPT , Meta line share Linkedin share follow us in feedly line share
Loading...
語言天賦不再是人類專屬?新研究揭示 LLM 具備驚人的規則推斷力

語言長期被視為人類的核心認知能力之一;最新由加州大學柏克萊分校(UC Berkeley)領導的研究顯示,某些先進的大型語言模型(LLMs)在受控語言學測試中能達到或接近人類專家的分析水準。主導這項研究的語言學家加斯珀·貝古什(Gašper Beguš)及其團隊對多個主流大型語言模型進行測試,包括 OpenAI 的 ChatGPT 和 Meta 的 Llama 3.1。

這項研究的核心在於對大型語言模型進行一系列語言學測試,主要使用語法樹(syntactic trees)等傳統句法分析工具,這些方法源自20世紀中期以降的生成語法研究。測試中包含對語言遞歸結構(recursion)的判斷,遞歸常被語言學視為語言複雜性與生成能力的重要標誌之一,研究發現部分LLM在此任務上的表現令人驚訝。

研究團隊使用120個複雜句子來測試模型的句法分析與標註能力,並為音韻學任務設計了30個「小型人造語言」,每個語言包含40個偽詞,以檢驗模型能否從有限資料中推斷音韻規則。結果顯示,某些模型能夠生成語法樹、並正確標註複雜句子的結構與遞歸關係,表現接近經訓練的語言學研究生或專家水準。

然而,研究者與外部語言學者指出,LLM的訓練目標是「下一個token的預測」,這導致它們在某些泛化與創造性推理上仍有限制。研究並未宣稱模型已完全達到或超越人類語言學家的普遍理解,而是表明「在某些語言分析任務上已接近或匹配人類專家」。

這項研究的結果引發了對於語言模型未來發展的討論。隨著技術的進步,這些模型是否會在語言能力上超越人類,成為一個值得關注的問題。Beguš認為這些結果顯示人類在語言能力上的「獨特性」正在被重估,未來隨著計算資源與訓練數據增加,模型可能進一步提升。

(首圖來源:Unsplash

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》