寫提示詞別再加「你是專家」,研究建議直接發送指令

作者 | 發布日期 2026 年 03 月 24 日 12:30 | 分類 AI 人工智慧 , 人力資源 , 數位內容 line share Linkedin share follow us in feedly line share
Loading...
寫提示詞別再加「你是專家」,研究建議直接發送指令

在生成式人工智慧(AI)的運用中,許多使用者習慣在提示詞(Prompt)開頭加入「你是一位專家級程式設計師」等角色設定,試圖藉此提升輸出品質。然而,根據南加州大學(USC)研究團隊及多項最新實驗顯示,「專家人格」提示法在處理程式編寫與數學運算等任務時,反而會導致模型表現下滑。

南加州大學研究員 Zizhao Hu 及其團隊在名為《專家人格提升大型語言模型(LLM)對齊(Alignment)但損害準確性》(Expert Personas Improve LLM Alignment but Damage Accuracy:Bootstrapping Intent-Based Persona Routing with PRISM)的預印論文(Preprint)中指出,人格提示的效果具有高度的「任務依賴性」。

研究發現,雖然設定特定人格能有效提升模型在寫作、角色扮演及安全性(如拒絕惡意攻擊)等「對齊(Alignment)依賴型」任務的表現,但在涉及程式碼與數學等「預訓練依賴型」任務時,結果卻適得其反。

根據大規模多任務語言理解(MMLU)基準測試,當要求模型在多選題中做出決策時,設定為專家人格的模型準確率僅為 68.0%,低於基礎模型的 71.6%。研究人員解釋,這可能是因為人格前綴啟動了模型的「指令遵循模式」,進而占用了原本應用於「事實檢索」的運算資源。換言之,告訴模型它是專家並不會增加其訓練資料中的事實,反而可能阻礙它從預訓練資料中提取正確資訊的能力。

針對此問題,USC 研究團隊提出了一種名為 PRISM(基於意圖自我建模的人格路由)的新技術。此項技術利用門控 LoRA(低秩適配,Low-Rank Adaptation)機制,讓模型在需要人格特質提升輸出時才啟動適配器(Adapter),其餘時間則回歸基礎模型以確保知識準確性。

對於一般使用者,研究人員建議:若重視安全性、規則或結構遵循,應提供具體的要求與人格設定;但若核心需求是事實準確性與邏輯運算,則應避免添加不必要的人格修飾,直接發送查詢指令即可。

(首圖來源:AI 生成)

延伸閱讀:

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》