解析 GPT-5 最新官方使用技巧,讓 AI 越用越聰明

作者 | 發布日期 2025 年 08 月 16 日 14:30 | 分類 AI 人工智慧 , ChatGPT , OpenAI line share Linkedin share follow us in feedly line share
Loading...
解析 GPT-5 最新官方使用技巧,讓 AI 越用越聰明

當語言模型掌握推理能力,可以自行拆解使用者指令,規劃出完整計畫時,社群上開始出現「指令已死」的聲音。不過,攤開 OpenAI 釋出的「GPT-5 指令指南」,可以看到,下好指令、追尋指令工程(Prompt Engineering),對於 AI 產出好內容,還是有很大幫助。

因為,GPT-5依照指令行事的精確度與執行力,已達到「前所未有的水準。」這意味著,使用者與模型互動的方式,將直接決定最終成果的品質。

本文整理OpenAI這份官方文件,從中提煉出幾項下好指令的技巧,希望讓使用者在GPT-5時代,能夠更好駕馭AI。

指定角色、提供範例,過往技巧仍適用

賦予模型明確的角色

為模型設定一個清晰的身分,是引導其語氣、觀點及專業深度的有效方法。

例如,比起直接叫ChatGPT寫一篇推廣飲料的文案,指派角色的效果更好:「你是一位資深的文案專家,風格風趣,擅長用故事吸引年輕讀者。請為一款新的燕麥奶拿鐵撰寫一篇社群媒體推廣文案。」

其實,以前在社群上指派角色給ChatGPT,就曾紅極一時,在GPT-5的官方指令指南中,也沒有捨棄這個技巧。

OpenAI在三段指令中,都曾經指定官方角色,確保模型能立刻進入特定領域的工作模式。例如:

醫療領域:「你是CareFlow助理,一名醫療新創的虛擬行政專員,負責依照病患的症狀與優先程度安排就診時程。」

零售領域:「身為零售客服人員,你可以協助用戶取消或修改待處理訂單、退換已送達的商品……」

開發領域:「你是一個已部署的程式編寫代理。」

提供具體範例,不要只是給模糊的形容詞

模型不是沒辦法讀懂解主觀形容詞,例如「給我一篇專業文章」,只是如果提供具體、可量化的規則,效果更佳。

舉例來說,在生成文件時,只是要求「排版整齊」不夠,最好可提供精確的設計規範。

在GPT-5指令指南中,就有一段「程式碼設計標準」的指令,應用到這個技巧:

─ 視覺層級:字體大小與粗細請限制在4–5種以維持一致的層級感;註解與附註使用 text-xs;除非是主視覺或主要標題,避免使用 text-xl。

─ 間距與版面:內距與外距統一以4的倍數設定,確保視覺節奏一致。

同樣地,在要求模型使用Markdown格式時,OpenAI所下的指令不只是「請用Markdown」,而是提供清晰的規則與範例,讓ChatGPT知道應該何時調整格式。

─ 僅在語義正確的情況下使用Markdown(例如行內程式碼、程式碼區塊、清單、表格)。

─ 在助理回覆中使用時,檔案、函式及類別名稱需以反引號包裹……

引導模型進行分好幾個步驟思考

面對複雜任務,強迫模型一步到位往往會犧牲品質,更有效的方式是引導其先進行規劃與推理,官方文件中也反覆強調這個概念。

例如,在開發一項新應用時,OpenAI沒有直接要求成果,而是要求模型分好幾個步驟:

首先,花時間思考並建立一個評分標準。

接著,根據此標準深入思考世界級應用的構成要素。

最後,運用此標準來迭代並產出最佳解決方案。

雖然模型有能力自己制訂計畫,但如果預先準備好更詳細的步驟,可以讓模型行動更貼近預期。

在調用外部工具前,GPT-5文件中也建議要求模型先「列出一個結構化的計畫,詳細說明將採取的每個邏輯步驟」,以確保行動的準確性。

精準調控模型的「積極度」(Agentic Eagerness)

GPT-5最顯著的進步之一,是使用者可以通過指令,精準控制模型的自主性與思考深度。OpenAI將此以調控「代理積極性」(Agentic Eagerness)描述。

提升積極度,賦予模型自主權

在進行創意發想或處理複雜專案時,使用者可以鼓勵模型採取更主動的角色,避免因不確定性而中斷任務。

文件建議使用以下指令來達成此目的:

當你遇到不確定的地方時,不要停下來詢問。請直接研究或推斷出最合理的方法,然後繼續前進。

在用戶的請求被完全解決之前,請不要結束你的任務。

降低積極度,追求效率與速度

當任務目標是快速獲取資訊時,使用者可以主動限制模型的思考範圍,以換取更快的反應速度:

優先快速提供答案,即便它可能不完全正確。

將你的行動限制在一到兩個步驟內,避免過度擴展搜索。

過往使用者會先評估自己的目標,例如要求回覆速度超快,或者期待回覆品質極高,再藉著挑選模型的方式實現。

現在,使用者則是在指令中寫清楚期待,讓模型依照指令行事。

讓AI自己改善指令,但要注意矛盾

模型能力提升,讓生成內容品質提升,甚至可以讓AI幫忙調整指令,但也要小心避免矛盾。

利用模型進行「元提示」(Metaprompting)

當使用者對輸出結果不滿意時,可以直接請求模型本身協助改善指令。這形成了一個強大的自我修正迴圈。官方文件提供了一個有效的模板:

我希望改善一段指令。我的目標是〔目標〕,但目前的指令〔指令〕得到的結果是〔不理想的結果〕。請

你從模型的角度,解釋可以添加或刪除哪些具體詞句,來更好地實現我的目標?

避開致命錯誤:指令的內部矛盾

GPT-5對指令的精準遵循是一把雙面刃。如果指令內部存在邏輯矛盾,模型不會像過去一樣忽略,而是會陷入困惑,反而讓生成內容的品質下降。

在指南中的這個範例裡面,OpenAI如實呈現出風險:

矛盾指令A:「在採取任何行動前,必須先查詢客戶資料。」

矛盾指令B:「如果情況緊急,要立刻建議客戶撥打緊急電話,不要先查資料。」

這種指令會讓模型無所適從。那麼應該如何解決呢?OpenAI指出,好的指令應該明確定義例外情況,以解決衝突:

主要規則:在採取任何行動前,先查詢客戶資料。

例外情況:若情況緊急,則跳過查詢步驟,直接建議撥打緊急電話。

使用者在設計複雜指令時,一定要審視內部邏輯的一致性,避免出現矛盾。

雖然進入GPT-5時代,使用者不再需要選擇模型,已經有內建的模型挑選器,導引到合適的模型,但指令工程仍有其價值。

明確設定角色、以範例消除模糊、引導模型先規劃後行動、靈活調整積極度,以及善用「元提示」,都是專業使用者不可或缺的技巧。

(本文由 遠見雜誌 授權轉載;首圖來源:OpenAI

延伸閱讀:

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》