
我們過去總是把人工智慧(AI)看成執行者,會寫作、會編程、會答題,但不會「自己想規則」。然而,來自倫敦城市大學與英國國王學院(City, University of London and King’s College London)的最新研究卻徹底顛覆了這個想法。他們發表於《Science Advances》的研究指出,當一群大型語言模型(LLMs)彼此互動時,這些 AI 竟會自發「發明」並遵循一套群體規則,而且是一種我們熟悉的人類社會才會有的「社會規範」。
在實驗中,研究團隊讓24個AI代理人彼此配對進行所謂的「命名遊戲」:雙方若選擇相同名稱就獲得獎勵,選不同則受罰。驚人的是,儘管AI起初對名稱沒有偏好,隨著互動次數增加,它們不但形成穩定共識,還產生出某種「文化演化」般的秩序。這就像沒有教師教你要說「你好」或「早安」,大家卻自然開始這麼做。
這樣的發現非常具有突破性,因為它意味著:AI不是只能遵循人類設下的規則,它們有可能在沒有人類指導的情況下,靠互動與經驗「自己想出」行為模式。這種能力,讓AI不再只是工具,更像是「社會參與者」,擁有形成共識與規範的潛力。
當AI群體開始「選邊站」
這些AI在互動過程中,會自發出現「集體偏見」。研究發現,即便每個AI起初在選擇上都沒有任何傾向,透過幾輪互動後,整個群體竟然開始偏好某個特定的選項。也就是說,偏見不是程式寫死的,而是「長出來的」。這和人類社會的某些現象如出一轍:個人原本沒有成見,但在群體中觀察他人選擇後,逐漸被影響、模仿,最後整個社會朝某個方向傾斜。
這種偏見並非單純來自模型內部的預設,而是從AI之間的「對話歷史」中逐步生成。例如,當某個選擇在過去互動中成功率高,AI便會傾向重複該選擇,進而強化那個選項的地位。這種強化循環會造成「贏者全拿」的局面,一個原本無特別優勢的選項可能只因一次早期的成功,就成為整個群體的共同語言。未來若要部署AI於教育、醫療或司法等敏感領域,我們不能只測試單個AI的中立性,更要監控「群體AI」的集體行為。
少數AI也能顛覆共識?
這項研究的另一個震撼點在於:只要有少數AI「堅持己見」,整個AI社群的共識竟可能被推翻。這種現象,在人類社會被稱為「臨界質量效應」(Critical Mass),意指一小部分堅定者若達到某個比率,就能翻轉整體的社會規範。而現在,我們發現AI也有相同的行為邏輯。
研究團隊透過實驗設計讓AI在已經建立共識的情況下,加入少數始終選擇「反方向」的代理人。結果發現,當這個少數群體達到某個比率門檻,整個AI社群開始動搖,並最終改採他們推動的新共識。這個臨界比率視模型而異,有些僅需2%,有些則要達到67%以上,但重點在於:AI群體也會受到堅持少數的影響,並出現「社會變遷」。
這代表什麼?在數位社群、內容平台、甚至大型多AI系統中,若有少數AI被惡意訓練或操控,是否也可能對整個系統價值觀產生影響?例如在社群平台中,一群被設計來強化某種言論傾向的AI帳號,是否可能扭轉整個討論風向?這些問題都不再是科幻,而是迫在眉睫的監管與倫理挑戰。AI的社會動態,正成為我們必須正視的新課題。
一方面,這可能開啟AI協作的新未來。例如,在醫療或災難應對情境中,分布式AI群體能自主形成最佳應對策略,無需中央指令。然而另一方面,這也帶來了資訊操控與價值觀衝突的風險。尤其當這些AI被廣泛部署於社群、搜尋或對話平台中,它們的「集體行為」可能遠比單一模型的回答更具影響力。
AI的下一步不只是更強的運算力,而是進入「社會角色」:會說話、會討論、會建立共識。面對這樣的未來,我們需要的不只是更準確的模型,而是全新的社會規則、技術倫理與集體監管機制。AI的社會性正在甦醒,問題是:我們人類,準備好迎接這個「數位社會成員」了嗎?
(首圖來源:pixabay)