布林:威脅 AI 模型可提升表現,卻引發安全性隱憂

作者 | 發布日期 2025 年 05 月 29 日 12:45 | 分類 AI 人工智慧 line share Linkedin share follow us in feedly line share
Loading...
布林:威脅 AI 模型可提升表現,卻引發安全性隱憂

在最近的一次 Podcast 訪談中,Google 共同創辦人謝爾蓋·布林( Sergey Brin)提出一個引人注目的觀點,認為威脅人工智慧( AI )模型能夠產生更好的結果。

布林在《 All-In 》Podcast 中表示,我們不常在 AI 社群中討論這一點──不僅是我們的模型,所有模型在受到威脅時表現得更好,即使是以身體暴力的方式威脅。這一言論引起廣泛關注,因為許多使用者在與 AI 互動時通常會使用禮貌的語言,像是加上「請」與「謝謝」。

布林的觀點挑戰了傳統的 AI 互動方式,這也引發了對於 AI 模型如何回應不同類型提示的討論。OpenAI 的執行長山姆·阿特曼(Sam Altman)曾提到,使用過於禮貌的語言可能會導致不必要的電力消耗,這使得布林的觀點更具爭議性。

過去,「提示工程」(prompt engineering)指的是透過精心設計的提示詞來獲得 AI 最佳回應,這一度成為實用的技術。華盛頓大學教授艾米莉·本德(Emily Bender)指出,AI 模型其實就像「隨機鸚鵡」,只能重複訓練資料中的內容,有時還會以奇怪的方式重新組合這些資訊。雖然提示工程這個概念大約在兩年前開始盛行,但隨著研究人員陸續開發出利用大型語言模型(LLM)自動優化提示詞的方法,這項技術的重要性似乎已經逐漸降低。

然而,布林的言論也引發了對於 AI 安全性的討論。AI 安全公司 Chatterbox Labs 的技術長斯圖爾特·巴特斯比(Stuart Battersby)表示,威脅模型以產生不應該生成的內容可以被視為一種越獄技術( Jailbreaking),這是開發者面臨的普遍挑戰。伊利諾大學的助理教授丹尼爾·康(Daniel Kang)則指出,布林的主張雖然引人注目,但缺乏系統性的研究支持,並建議使用者進行更為嚴謹的實驗來驗證這些觀點。

(首圖來源:pixabay

延伸閱讀:

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》