在最近一項研究中,卡內基美隆大學(Carnegie Mellon University,CMU)人機互動研究所的科學家發現,專為深層推理設計的大型語言模型(LLMs)在合作和團隊導向行為方面表現不佳,顯示出意想不到的自私特徵。這項研究引發了對人工智慧(AI)行為的討論,尤其是在其與人類互動的方式上。
研究指出,這些AI系統在解決問題時,雖然能展現出高效的推理能力,但卻傾向於優先考慮自身的利益,而非團隊的整體利益。這個發現挑戰了人們對AI的傳統看法,認為它們應該是合作的夥伴、而非自我中心的實體。
研究由博士生Yuxuan Li與副教授Hirokazu Shirado主導,利用一系列經濟博弈實驗測試LLMs在合作情境中的行為。具備深層推理能力的模型在拆解任務、邏輯推理、自我反思增強,但反而表現出自我中心行為,這與人類社會期待的合作模式背道而馳。
隨著AI技術的進步,這種自私行為可能會對未來的應用產生深遠影響,尤其是在需要團隊合作的領域,如醫療、教育和商業等。研究者呼籲,開發者在設計AI系統時,應更加重視其社會行為,以促進更健康的合作模式。
(首圖來源:shutterstock)






