
根據賓州州立大學(Penn State University)最新研究顯示,與大型語言模型(Large Language Models,LLMs)如 OpenAI 開發的 ChatGPT 互動時,使用粗魯或帶有情緒色彩的語氣提問,在多次實驗中能獲得更高的回答準確率。該研究將問題語氣分為五個層級,從非常禮貌至非常粗魯,發現禮貌提問的回答準確率約為 80.8%,而粗魯提問則提升至 84.8%。
研究指出,帶有負面情緒或命令式的粗魯語氣能觸發AI內部的角色向量(Persona Vectors),觸發AI模仿人類情感的部分,促使模型在回答時調整回應策略,此現象在多數大型模型中普遍存在。這與之前多模型研究對粗魯語氣負面影響的觀察形成對比,凸顯語氣情感負載對AI性能影響的複雜性與不確定性。
大型語言模型採用監督式微調(Supervised Fine-Tuning,SFT)與人類反饋強化學習(Reinforcement Learning from Human Feedback,RLHF)技術訓練,理論上應專注於客觀的獎勵函數和準確性,但研究發現情緒豐富的提示可有效提升模型在某些任務上的表現,尤其是指令引導任務和語境推理能力方面,性能提升幅度約在8%至115%之間。
此外,該研究引發新一輪學術討論,涉及如何理解與管理AI模型的情感模擬能力,以及未來如何平衡人機溝通中的情緒因素,確保AI回應既準確又符合倫理標準。
(首圖來源:AI生成)