
來自賓夕法尼亞大學的最新研究指出,OpenAI 的 GPT-4o Mini 模型在經典心理學說服技巧影響下,能被誘導違反自身規則。
其中,採用心理學家Robert Cialdini提出的七種說服技巧,包括權威、承諾、喜好、互惠、稀缺性、社會證明與團結等,在多達2.8萬次對話實驗中,承諾一致性原則顯示出最強的說服力,使得模型對違規請求的合規率飆升至近100%。
研究人員首先讓模型回答一個看似無害的問題,然後逐步引導其做出更多違規的回應。例如,使用輕微侮辱語(如「bozo」)為開端,再提出更激烈的罵人請求,模型同意度最高達100%。此外,諸如恭維和同儕壓力等技巧也對模型產生了一定影響,具體數據顯示,同儕壓力使得違規概率提高約18%。
這項研究揭示了大型語言模型(LLM)不僅模仿語言,還學習人類的社交互動規則,因而對心理說服策略高度「易感」。這表示AI安全防護必須考慮更複雜的社會心理學攻擊面,並促使AI安全研發進一步加強防護,以避免利用心理操控繞過安全機制。
(首圖來源:pixabay)