蘇黎世大學團隊近期於 Science Advances 發表研究,發現無論是美國、法國還是中國開發的大型語言模型(LLM),一旦評論文本被標示為「中國人」所寫,AI 對該文本評價分數會出現明顯下降,並非內容本身不合邏輯,而是單因國籍標籤產生重大偏見。這現象在中國的 DeepSeek Reasoner 模型尤其明顯,顯示偏見並非由開發國籍或政治立場主導,而是大規模語言模型難以完全消除的結構性問題。 繼續閱讀..
研究指 AI 對中國有偏見,DeepSeek 模型歧視傾向竟然最嚴重 |
| 作者 Unwire HK|發布日期 2025 年 11 月 18 日 7:10 | 分類 AI 人工智慧 , Big Data , 網路 |











