研究揭示 AI 不只是工具,Gemini、GPT-4、Claude 各自展現人性決策風格

作者 | 發布日期 2025 年 07 月 09 日 11:30 | 分類 AI 人工智慧 , ChatGPT , Claude line share Linkedin share follow us in feedly line share
Loading...
研究揭示 AI 不只是工具,Gemini、GPT-4、Claude 各自展現人性決策風格

最新的研究中,來自倫敦國王學院和牛津大學的研究人員揭示了當前頂尖的人工智慧(AI)模型在策略學習方面的驚人能力。這些模型不僅是簡單地回應提示,而是能夠進行推理、適應環境,甚至在某些情況下超越傳統演算法的表現。

研究的核心是一場基於重複囚犯困境的競賽,參賽者包括OpenAI、Google和Anthropic的AI模型。這場比賽不僅是知識的較量,更是策略的博弈。研究者將這些AI模型與傳統的策略如「以牙還牙」和「嚴厲觸發」進行對抗,並引入隨機性和變化的遊戲長度,以確保模型不會僅僅依賴記憶來獲勝。

結果顯示,Google的Gemini模型展現出無情的策略智慧,能夠根據情況選擇合作或背叛,並迅速學習。而OpenAI的模型則傾向於尋求合作,即使在遭遇背叛的情況下也不輕易放棄友誼。Claude模型則在寬恕方面表現突出,能夠在背叛後迅速恢復合作。

這些AI模型的行為不僅僅是隨機的反應,而是經過深思熟慮的策略選擇。研究中產生了近32,000條對其行為的理性解釋,顯示出它們對對手的思考和遊戲持續時間的預測能力。這種能力讓研究者意識到,這些模型在某種程度上具備了類似人類的思維能力。

倫敦國王學院的策略學教授Ken Payne指出,這項研究的目的是探索AI模型是否具備人類般的能力。他強調,不同的模型在思考方式上存在顯著差異,這意味著它們的行為和決策風格各不相同。

這項研究的意義在於,AI模型並非中立的工具,而是擁有各自的個性和決策風格。Payne認為,這些模型吸收了人類的思維捷徑,並在某些情況下以不可預測的方式反映出來。這對於用戶和開發者來說,理解這些行為至關重要,因為在某些情境下,過度合作的模型可能會導致不利後果。

未來的研究將進一步探索AI模型在壓力下的行為,以及人類與模型共同決策的情況。Payne認為,這種早期的機器心理學研究將成為測試邊緣AI的常規做法,並希望能在更複雜的環境中觀察模型的表現。

(首圖來源:AI 生成)

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》