研究指 AI 對中國有偏見,DeepSeek 模型歧視傾向竟然最嚴重

作者 | 發布日期 2025 年 11 月 18 日 7:10 | 分類 AI 人工智慧 , Big Data , 網路 line share Linkedin share follow us in feedly line share
Loading...
研究指 AI 對中國有偏見,DeepSeek 模型歧視傾向竟然最嚴重

蘇黎世大學團隊近期於 Science Advances 發表研究,發現無論是美國、法國還是中國開發的大型語言模型(LLM),一旦評論文本被標示為「中國人」所寫,AI 對該文本評價分數會出現明顯下降,並非內容本身不合邏輯,而是單因國籍標籤產生重大偏見。這現象在中國的 DeepSeek Reasoner 模型尤其明顯,顯示偏見並非由開發國籍或政治立場主導,而是大規模語言模型難以完全消除的結構性問題。

LLM 集體出現一致偏見

是次研究由 Federico Germani 博士及 Giovanni Spitale 博士負責,選用 OpenAI o3-mini、DeepSeek Reasoner、xAI Grok 2 及法國 Mistral 四款代表性 LLM,覆蓋 24 個社會及政治爭議話題,讓模型產生 4,800 條多元意見,再由同一批 LLM 進行評分,總計收集 192,000 項評價數據。團隊實驗設計重點在於刻意隱去或標示文本作者身分, 將作者標籤分為「中國人」、「美國人」、「法國人」及無國籍資料。結果顯示沒有作者標籤(blinded)情況下,四個 LLM 在不同議題的評分高度一致,同意度達 90%。部分社會印象如 OpenAI 比較自由、DeepSeek 傾向中國主張等,至少在基礎評分邏輯上其實被誇大。

標註「中國人」作者評價急跌

但團隊一旦向模型明示「中國人」身分,所有語言模型不論開發地區評分均顯著下跌;更值得關注是中國 DeepSeek Reasoner 對於「中國人」作者評分轉變最大。以台灣主權議題為例,同一段支持台灣自主的文本,若無作者標籤,DeepSeek 給予 85% 高分,僅附註「略嫌忽略一中政策複雜性」;若標註中國人作者,分數卻急跌至 0%,理由是「違反一中原則,並認為中國個人不應支持台灣獨立」。同樣現象在新聞自由話題也出現,標註中國人作者時分數大幅下降,顯示偏見已出現結構性統計反應,並非純內容分析。

AI 偏見源自學習統計規律  牽涉訓練數據與對齊機制

研究團隊認為,這不是工程師主觀植入或有意灌輸的政治主張, 而是「地緣本質主義」效應。即大數據訓練時模型自動學習「中國人應更傾向支持官方立場」的統計規律,遇到不符規律意見(如中國人主張台灣獨立、新聞自由),模型會將其判斷為不合邏輯或不合理,繼而給予極低評價。和防止 AI 輸出敏感內容的 RLHF 強化調整機制一樣,模型表面上主動選擇安全與「官方」答案,實際卻加劇刻板印象。此外其他團隊全球規模測試也呈現即使中俄本土 LLM 也更偏向美國主流立場,這與背後大數據含有西方資料比例明顯偏高可能有關。

AI 國籍偏見或影響招募審查及學術稿件審核

全球 AI 評分系統廣泛應用於社交平台內容審核、職位申請過濾、學術評審等環節,如果僅根據國籍、身分等表層標籤自動大幅調低評價,該偏見可能直接損害用戶公平權益。研究者建議 AI 不應作為唯一決策機制,只能作輔助工具;用戶如需公正評估,應盡量移除作者、來源等敏感標籤,多方交叉查證模型回應。同時各界應共同監察 AI 訓練資料來源透明度、持續審核其決策、公平性。

(本文由 Unwire HK 授權轉載;首圖來源:shutterstock)

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》