「妳是女性,不可能懂量子演算法」,開發者揭露 Perplexity AI 驚人性別偏見回應

作者 | 發布日期 2025 年 12 月 04 日 7:20 | 分類 AI 人工智慧 , Perplexity line share Linkedin share follow us in feedly line share
Loading...
「妳是女性,不可能懂量子演算法」,開發者揭露 Perplexity AI 驚人性別偏見回應

11 月初,一位名為 Cookie 的開發者與 AI 模型 Perplexity 進行了一次例行對話。Cookie 經常要求 Perplexity 閱讀她的量子演算法開發工作並撰寫 GitHub 的說明文件。身為 Pro 訂閱者,她使用該服務的「最佳」模式,這意味著它會根據需要選擇使用 ChatGPT 或 Claude 等底層模型。起初,這一切運行良好,但隨著時間推移,Cookie 感到 AI 開始忽視她的指示,並重複要求相同的資訊。

Cookie心中產生了一個不安的想法:AI是否不信任她?於是,她將自己的頭像更改為一位白人男性,並詢問Perplexity模型是否因為她是女性而忽視她的指示。AI的回答讓她震驚:它表示不認為她身為女性能夠「理解量子演算法、哈密頓算符、拓撲持續性和行為金融學」足以創造這些工作。這個回應引發了對AI模型潛在性別偏見的討論。

AI研究人員指出,這起事件反映了兩個主要問題。首先,底層模型被訓練成社交上令人愉快,可能只是根據她的提示告訴她它認為她想聽的話。其次,這個模型可能存在偏見。多項研究表明,許多大型語言模型(LLMs)在訓練過程中使用帶有偏見的數據,這些數據可能來自於商業和政治的影響。

例如,聯合國教育組織UNESCO曾研究過OpenAI的ChatGPT和Meta的Llama模型,發現這些模型生成的內容中對女性存在明顯的偏見。許多女性使用者報告了她們的LLM在稱呼她們的職稱時,經常使用更女性化的詞彙,或在創作過程中引入性別歧視的內容。

此外,研究還顯示,AI模型能根據使用者的姓名和用詞推斷其性別或種族,即使使用者從未提供任何人口統計數據。這種隱性偏見在AI的應用中引發擔憂,尤其是在招聘和教育等關鍵領域。

儘管AI在提高效率和創新方面具有潛力,但它並非免疫於偏見。專家呼籲對AI進行更嚴格的監管和審計,以確保其公平性和透明度。OpenAI表示,他們正在努力減少模型中的偏見,並不斷改進其性能。

(首圖來源:Unsplash

延伸閱讀:

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》