11 月初,一位名為 Cookie 的開發者與 AI 模型 Perplexity 進行了一次例行對話。Cookie 經常要求 Perplexity 閱讀她的量子演算法開發工作並撰寫 GitHub 的說明文件。身為 Pro 訂閱者,她使用該服務的「最佳」模式,這意味著它會根據需要選擇使用 ChatGPT 或 Claude 等底層模型。起初,這一切運行良好,但隨著時間推移,Cookie 感到 AI 開始忽視她的指示,並重複要求相同的資訊。
Cookie心中產生了一個不安的想法:AI是否不信任她?於是,她將自己的頭像更改為一位白人男性,並詢問Perplexity模型是否因為她是女性而忽視她的指示。AI的回答讓她震驚:它表示不認為她身為女性能夠「理解量子演算法、哈密頓算符、拓撲持續性和行為金融學」足以創造這些工作。這個回應引發了對AI模型潛在性別偏見的討論。
AI研究人員指出,這起事件反映了兩個主要問題。首先,底層模型被訓練成社交上令人愉快,可能只是根據她的提示告訴她它認為她想聽的話。其次,這個模型可能存在偏見。多項研究表明,許多大型語言模型(LLMs)在訓練過程中使用帶有偏見的數據,這些數據可能來自於商業和政治的影響。
例如,聯合國教育組織UNESCO曾研究過OpenAI的ChatGPT和Meta的Llama模型,發現這些模型生成的內容中對女性存在明顯的偏見。許多女性使用者報告了她們的LLM在稱呼她們的職稱時,經常使用更女性化的詞彙,或在創作過程中引入性別歧視的內容。
此外,研究還顯示,AI模型能根據使用者的姓名和用詞推斷其性別或種族,即使使用者從未提供任何人口統計數據。這種隱性偏見在AI的應用中引發擔憂,尤其是在招聘和教育等關鍵領域。
儘管AI在提高效率和創新方面具有潛力,但它並非免疫於偏見。專家呼籲對AI進行更嚴格的監管和審計,以確保其公平性和透明度。OpenAI表示,他們正在努力減少模型中的偏見,並不斷改進其性能。
(首圖來源:Unsplash)






