隨著生成式人工智慧(AI)技術的普及,全球最大的線上百科全書維基百科(Wikipedia)正深陷一場由大型語言模型(LLM)引發的翻譯品質危機。根據最新報導,維基百科編輯部在審核由 AI 輔助翻譯的文章時,發現了大量事實錯誤與「幻覺」現象,這不僅威脅到資訊的準確性,也迫使社群祭出更為嚴厲的審核與懲罰機制。
這場危機的源頭與非營利組織「開放知識協會」(Open Knowledge Association,OKA)的一項資助計畫有關。該組織旨在縮減不同語言間的資訊鴻溝,每月向主要來自全球南方(Global South)的譯者支付約 400 美元的津貼,鼓勵他們將英文維基百科的文章翻譯成其他語言。然而,為了追求效率,許多譯者過度依賴 Google Gemini 和 ChatGPT 等 AI 工具,且未進行充分的人工校對。
根據 404 Media 的調查,維基百科編輯在例行審查中發現,這些 AI 翻譯的文章經常出現原文中並不存在的基礎事實錯誤。更嚴重的是,AI 在處理文獻引用時表現極差,經常出現引用缺失、誤植,甚至將參考資料指向與主題完全無關的書籍頁面。之前,該計畫曾使用馬斯克(Elon Musk)旗下的 Grok 模型,但因其產出內容爭議不斷,OKA 已據報更改了相關政策。
維基百科長期以來主要依靠志工無償編輯,雖然允許公關代理人等有償編輯,但須經過嚴格揭露與審查。專家分析認為,OKA 引入的商業補償機制可能產生負面誘因,促使譯者為了獲取津貼而加快速度,進而忽視了內容品質。
儘管面臨品質挑戰,維基百科編輯部目前仍決定繼續接受 OKA 的服務。這背後反映了非英語維基百科的困境:目前英文維基百科的規模仍遠超其他語言,許多小眾語言的條目極度匱乏。為了守住品質底線,維基百科對 OKA 譯者實施了比一般用戶更嚴苛的規範。新規定指出,若一名譯者被記錄到五次翻譯錯誤,將面臨停權處分,且其過往的所有翻譯貢獻若無資深編輯接手審核,將可能被全數刪除。維基百科正努力在擴充內容與維持可信度之間取得平衡,避免百科全書淪為「翻譯垃圾場」。
(首圖來源:Unsplash)






