問 AI 學歷史有多危險?尼安德塔人案例顯示一半內容與現代科學不符

作者 | 發布日期 2026 年 04 月 11 日 10:30 | 分類 AI 人工智慧 , 科技趣聞 line share Linkedin share follow us in feedly line share
Loading...
問 AI 學歷史有多危險?尼安德塔人案例顯示一半內容與現代科學不符

一項新研究指出,生成式 AI 雖然能迅速回答問題,卻也可能把過時的科學觀念一併帶入當代。美國研究團隊以尼安德塔人(Neanderthal)為案例測試聊天機器人與圖像生成系統,發現 AI 產出的文字與圖片常引用過時資料,甚至混入與史前時代不符的元素,凸顯大眾在使用 AI 了解歷史時,可能面臨誤導風險。

這項研究由緬因大學(University of Maine)人類學助理教授 Matthew Magnani 與芝加哥大學(University of Chicago)專攻計算人類學的教授 Jon Clindaniel 合作完成,並發表於《Advances in Archaeological Practice》。研究團隊設計四組提示詞,每組重複執行 100 次,分別使用 DALL-E 3 生成影像,以及 ChatGPT API(GPT-3.5)撰寫尼安德塔人日常生活敘述,以檢驗 AI 對古人類知識的再現是否貼近現代學界理解。

結果顯示,AI 的表現高度依賴其可接觸到的資料來源。研究團隊指出,生成的影像延續了超過百年前的刻板印象,把尼安德塔人描繪成毛髮濃密、身體前傾、近似猿類的原始形象,且多半只呈現男性,忽略女性與兒童。文字內容同樣出現明顯落差,約有一半與當代科學認知不符;在某些提示詞下,偏離比例甚至超過八成。

更令人關注的是,這些內容還出現了明顯的時代錯置,例如籃編、茅草屋、梯子,以及玻璃和金屬等不屬於尼安德塔時期的物件。研究進一步比對不同年代的學術文獻後發現,ChatGPT 的回答最接近 1960 年代的研究,而 DALL-E 3 的圖像則更像 1980 年代末到 1990 年代初的資料。

Magnani 表示,這項研究旨在辨識日常使用 AI 時可能內建的偏誤,也提供其他研究者一個模板,檢視人工智慧生成內容與最新學術知識之間的距離。Clindaniel 則強調,AI 雖擅長處理大量資料並找出模式,但前提是必須建立在經過驗證的科學知識之上。

研究團隊認為,隨著生成式 AI 更廣泛走入教育與公共知識領域,如何讓考古與人類學資料更容易被 AI 存取,將影響未來人們如何理解過去。他們也提醒,若缺乏適當校正,AI 雖能讓更多人更容易想像遠古世界,卻也可能放大舊有偏見與錯誤敘事。

(首圖來源:shutterstock)

延伸閱讀:

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》