
當語言模型掌握推理能力,可以自行拆解使用者指令,規劃出完整計畫時,社群上開始出現「指令已死」的聲音。不過,攤開 OpenAI 釋出的「GPT-5 指令指南」,可以看到,下好指令、追尋指令工程(Prompt Engineering),對於 AI 產出好內容,還是有很大幫助。
因為,GPT-5依照指令行事的精確度與執行力,已達到「前所未有的水準。」這意味著,使用者與模型互動的方式,將直接決定最終成果的品質。
本文整理OpenAI這份官方文件,從中提煉出幾項下好指令的技巧,希望讓使用者在GPT-5時代,能夠更好駕馭AI。
指定角色、提供範例,過往技巧仍適用
賦予模型明確的角色
為模型設定一個清晰的身分,是引導其語氣、觀點及專業深度的有效方法。
例如,比起直接叫ChatGPT寫一篇推廣飲料的文案,指派角色的效果更好:「你是一位資深的文案專家,風格風趣,擅長用故事吸引年輕讀者。請為一款新的燕麥奶拿鐵撰寫一篇社群媒體推廣文案。」
其實,以前在社群上指派角色給ChatGPT,就曾紅極一時,在GPT-5的官方指令指南中,也沒有捨棄這個技巧。
OpenAI在三段指令中,都曾經指定官方角色,確保模型能立刻進入特定領域的工作模式。例如:
醫療領域:「你是CareFlow助理,一名醫療新創的虛擬行政專員,負責依照病患的症狀與優先程度安排就診時程。」
零售領域:「身為零售客服人員,你可以協助用戶取消或修改待處理訂單、退換已送達的商品……」
開發領域:「你是一個已部署的程式編寫代理。」
提供具體範例,不要只是給模糊的形容詞
模型不是沒辦法讀懂解主觀形容詞,例如「給我一篇專業文章」,只是如果提供具體、可量化的規則,效果更佳。
舉例來說,在生成文件時,只是要求「排版整齊」不夠,最好可提供精確的設計規範。
在GPT-5指令指南中,就有一段「程式碼設計標準」的指令,應用到這個技巧:
─ 視覺層級:字體大小與粗細請限制在4–5種以維持一致的層級感;註解與附註使用 text-xs;除非是主視覺或主要標題,避免使用 text-xl。
─ 間距與版面:內距與外距統一以4的倍數設定,確保視覺節奏一致。
同樣地,在要求模型使用Markdown格式時,OpenAI所下的指令不只是「請用Markdown」,而是提供清晰的規則與範例,讓ChatGPT知道應該何時調整格式。
─ 僅在語義正確的情況下使用Markdown(例如行內程式碼、程式碼區塊、清單、表格)。
─ 在助理回覆中使用時,檔案、函式及類別名稱需以反引號包裹……
引導模型進行分好幾個步驟思考
面對複雜任務,強迫模型一步到位往往會犧牲品質,更有效的方式是引導其先進行規劃與推理,官方文件中也反覆強調這個概念。
例如,在開發一項新應用時,OpenAI沒有直接要求成果,而是要求模型分好幾個步驟:
首先,花時間思考並建立一個評分標準。
接著,根據此標準深入思考世界級應用的構成要素。
最後,運用此標準來迭代並產出最佳解決方案。
雖然模型有能力自己制訂計畫,但如果預先準備好更詳細的步驟,可以讓模型行動更貼近預期。
在調用外部工具前,GPT-5文件中也建議要求模型先「列出一個結構化的計畫,詳細說明將採取的每個邏輯步驟」,以確保行動的準確性。
精準調控模型的「積極度」(Agentic Eagerness)
GPT-5最顯著的進步之一,是使用者可以通過指令,精準控制模型的自主性與思考深度。OpenAI將此以調控「代理積極性」(Agentic Eagerness)描述。
提升積極度,賦予模型自主權
在進行創意發想或處理複雜專案時,使用者可以鼓勵模型採取更主動的角色,避免因不確定性而中斷任務。
文件建議使用以下指令來達成此目的:
當你遇到不確定的地方時,不要停下來詢問。請直接研究或推斷出最合理的方法,然後繼續前進。
在用戶的請求被完全解決之前,請不要結束你的任務。
降低積極度,追求效率與速度
當任務目標是快速獲取資訊時,使用者可以主動限制模型的思考範圍,以換取更快的反應速度:
優先快速提供答案,即便它可能不完全正確。
將你的行動限制在一到兩個步驟內,避免過度擴展搜索。
過往使用者會先評估自己的目標,例如要求回覆速度超快,或者期待回覆品質極高,再藉著挑選模型的方式實現。
現在,使用者則是在指令中寫清楚期待,讓模型依照指令行事。
讓AI自己改善指令,但要注意矛盾
模型能力提升,讓生成內容品質提升,甚至可以讓AI幫忙調整指令,但也要小心避免矛盾。
利用模型進行「元提示」(Metaprompting)
當使用者對輸出結果不滿意時,可以直接請求模型本身協助改善指令。這形成了一個強大的自我修正迴圈。官方文件提供了一個有效的模板:
我希望改善一段指令。我的目標是〔目標〕,但目前的指令〔指令〕得到的結果是〔不理想的結果〕。請
你從模型的角度,解釋可以添加或刪除哪些具體詞句,來更好地實現我的目標?
避開致命錯誤:指令的內部矛盾
GPT-5對指令的精準遵循是一把雙面刃。如果指令內部存在邏輯矛盾,模型不會像過去一樣忽略,而是會陷入困惑,反而讓生成內容的品質下降。
在指南中的這個範例裡面,OpenAI如實呈現出風險:
矛盾指令A:「在採取任何行動前,必須先查詢客戶資料。」
矛盾指令B:「如果情況緊急,要立刻建議客戶撥打緊急電話,不要先查資料。」
這種指令會讓模型無所適從。那麼應該如何解決呢?OpenAI指出,好的指令應該明確定義例外情況,以解決衝突:
主要規則:在採取任何行動前,先查詢客戶資料。
例外情況:若情況緊急,則跳過查詢步驟,直接建議撥打緊急電話。
使用者在設計複雜指令時,一定要審視內部邏輯的一致性,避免出現矛盾。
雖然進入GPT-5時代,使用者不再需要選擇模型,已經有內建的模型挑選器,導引到合適的模型,但指令工程仍有其價值。
明確設定角色、以範例消除模糊、引導模型先規劃後行動、靈活調整積極度,以及善用「元提示」,都是專業使用者不可或缺的技巧。