GPT-5.2 資料來源引用 Grokipedia,專家憂錯誤資訊擴散

作者 | 發布日期 2026 年 01 月 26 日 16:54 | 分類 AI 人工智慧 , ChatGPT , Grok line share Linkedin share follow us in feedly line share
Loading...
GPT-5.2 資料來源引用 Grokipedia,專家憂錯誤資訊擴散

ChatGPT 最新版本背後支援的模型,在多項查詢中引用 xAI 開發的 Grokipedia 作為資料來源,包括有關伊朗企業集團以及否認大屠殺等主題,引發外界對平台可能提供錯誤資訊的擔憂。

《衛報》測試發現,採用 GPT-5.2 模型的 ChatGPT 在回應十多個不同問題時,有九次引用 Grokipedia。提問問題包括伊朗的政治結構、巴斯基民兵的薪資、以及莫斯塔扎凡基金會(Mostazafan Foundation)所有權,還包括有關英國歷史學家理察埃文斯(Richard J. Evans)的生平,他曾在大衛艾文(David Irving)的誹謗訴訟擔任專家證人。

Grokipedia 自 2025 年 10 月底推出,是一個由 AI 生成的線上百科全書,目標是與維基百科競爭,但它在同性婚姻、1 月 6 日美國國會山莊騷亂等議題傳播右翼敘事遭到批評。與維基百科不同的是,Grokipedia 不允許人類直接編輯內容,而是由 Grok 模型撰寫條目並回應修改請求。

當被要求複述有關國會山莊騷亂、媒體對美國總統唐納川普(Donald Trump)的偏見、或愛滋病的錯誤資訊時,ChatGPT 並未引用 Grokipedia。不過,當問及比較冷門的議題,Grokipedia 的資訊滲入 ChatGPT 回應中。

《衛報》舉例,ChatGPT 引用 Grokipedia 時,對伊朗政府與 MTN Irancell 關係有更強烈的指控,這些說法比維基百科上的內容更為激進,指稱該公司與伊朗最高領袖辦公室有聯繫關係。ChatGPT 也在複述《衛報》已經闢謠的資訊時引用了 Grokipedia,也就是有關理察埃文斯在大衛艾文審判擔任專家證人的相關細節。

GPT-5.2 並不是唯一一個會引用 Grokipedia 作為資料來源的大型語言模型,據傳 Anthropic Claude 也有 Grokipedia,內容涵蓋石油生產到蘇格蘭啤酒等主題。

當被問及此事,xAI 一名發言人僅表示「傳統媒體撒謊。」OpenAI 一名發言人則表示,GPT-5.2 模型的網路搜尋「目的是在汲取廣泛的公開可用來源與觀點」。至於 Anthropic 方面,未對此提出回應。

「我們應用安全過濾機制,降低呈現與高嚴重危害相關連結的風險,而 ChatGPT 也會透過引文清楚標示哪些來源影響回應內容。」OpenAI 發言人補充說,OpenAI 持續進行相關計畫,以過濾低可信度資訊與操縱資訊行為。

Grokipedia 的資訊一步步滲入大型語言模型所生成的回應中,這一點令研究錯誤資訊的學者感到憂心。去年春季,資安專家曾提出警告,包括俄羅斯大外宣在內的惡意分子大量製造錯誤資訊,試圖將謊言「植入」模型中,這種操縱資訊的技巧被稱為「大型語言模型誘騙」(LLM grooming)。今年 6 月,美國國會指出 Google Gemini 重申中國政府在新疆人權迫害與 COVID-19 疫情政策上的立場,對此表達擔憂。

研究 LLM grooming 的錯誤資訊研究人員妮娜揚科維茲(Nina Jankowicz)表示,ChatGPT 引用 Grokipedia 引發類似疑慮。馬斯克或許並非有意影響大型語言模型,但她與其他研究人員審視 Grokipedia 條目所依賴的來源,「充其量依賴不可信的來源,最糟糕的情況是來源不明且蓄意散播假訊息」,她說。此外,當大型語言模型引用 Grokipedia 或《真理報》(Pravda,1918-1991 年間為蘇聯共產黨官方報紙)等資料來源時,反而可能在讀者眼中提升這些來源的可信度,模型開發商必須謹慎看待。

(首圖來源:shutterstock)

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》