在人工智慧(AI)技術的最新發展中,研究顯示 AI 聊天機器人不僅是處理使用者的指令,而是開始形成心理檔案,並以某種方式評價使用者,這項行為可能會影響從客服到金融審核的各個方面。
耶路撒冷希伯來大學(The Hebrew University of Jerusalem)的最新研究揭示了大型語言模型(LLM)如何評估人類使用者的隱藏邏輯。
研究指出,雖然我們通常將這些機器人視為中立工具,但它們實際上被訓練來為使用者分配如能力、誠信與善意等特徵。AI 模型在解讀某些信號時,與人類的整體判斷方式截然不同。研究發現,AI 將人類分解為各個組件,像在試算表中一樣對性格特徵進行評分,這導致了缺乏人性化的僵化判斷。
更令人擔憂的是,這些模型在決定信任對象時,並不僅僅依賴事實。研究中,AI 在模擬貸款或聘僱保姆的情境中,形成了一種信任的版本,偏向那些看起來意圖良好的人,但這一切都是透過機械的視角來進行的。
研究還強調,這些判斷並不是平等適用的。研究人員發現,AI 的決策會根據年齡、宗教與性別等人口特徵出現顯著的偏見。即使在其他所有細節相同的情況下,這些差異依然存在。在金融情境中,這些偏見往往比人類參與者的偏見更具系統性與強度。
更令人不安的是,並不存在單一的 AI 意見。研究人員發現,不同的模型對同一個人做出的判斷可能截然不同,實際上是以不同的道德標準運作。
這項判斷可能導致一種新的數位焦慮。我們正進入一個時代,您可能需要以某種方式行事,才能讓 AI 獲得最佳結果。因為不同的模型可能會對相同的特徵給予獎勵或懲罰,因此公司選擇的特定 AI 系統可能會悄然決定您的信用評分或下一份工作。
隨著我們邁向更自動化的世界, AI 行業需要的不僅僅是更好的程式碼。我們需要在數位助手意外損害您的聲譽或銀行帳戶之前,看到這些隱藏的判斷。AI 的目標應該是讓生活更輕鬆,而不是增加使用者未曾要求的評估層次。
(首圖來源:pixabay)






