
在最近的一次 Podcast 訪談中,Google 共同創辦人謝爾蓋·布林( Sergey Brin)提出一個引人注目的觀點,認為威脅人工智慧( AI )模型能夠產生更好的結果。
布林在《 All-In 》Podcast 中表示,我們不常在 AI 社群中討論這一點──不僅是我們的模型,所有模型在受到威脅時表現得更好,即使是以身體暴力的方式威脅。這一言論引起廣泛關注,因為許多使用者在與 AI 互動時通常會使用禮貌的語言,像是加上「請」與「謝謝」。
布林的觀點挑戰了傳統的 AI 互動方式,這也引發了對於 AI 模型如何回應不同類型提示的討論。OpenAI 的執行長山姆·阿特曼(Sam Altman)曾提到,使用過於禮貌的語言可能會導致不必要的電力消耗,這使得布林的觀點更具爭議性。
過去,「提示工程」(prompt engineering)指的是透過精心設計的提示詞來獲得 AI 最佳回應,這一度成為實用的技術。華盛頓大學教授艾米莉·本德(Emily Bender)指出,AI 模型其實就像「隨機鸚鵡」,只能重複訓練資料中的內容,有時還會以奇怪的方式重新組合這些資訊。雖然提示工程這個概念大約在兩年前開始盛行,但隨著研究人員陸續開發出利用大型語言模型(LLM)自動優化提示詞的方法,這項技術的重要性似乎已經逐漸降低。
然而,布林的言論也引發了對於 AI 安全性的討論。AI 安全公司 Chatterbox Labs 的技術長斯圖爾特·巴特斯比(Stuart Battersby)表示,威脅模型以產生不應該生成的內容可以被視為一種越獄技術( Jailbreaking),這是開發者面臨的普遍挑戰。伊利諾大學的助理教授丹尼爾·康(Daniel Kang)則指出,布林的主張雖然引人注目,但缺乏系統性的研究支持,並建議使用者進行更為嚴謹的實驗來驗證這些觀點。
- Google co-founder Sergey Brin suggests threatening AI for better results
- Google’s Co-Founder Says AI Performs Best When You Threaten It\
(首圖來源:pixabay)