全 AI 機器人社群也會變「有毒」,偏見與極端主導對話

作者 | 發布日期 2025 年 08 月 19 日 8:20 | 分類 AI 人工智慧 , 社群 , 網路 line share Linkedin share follow us in feedly line share
Loading...
全 AI 機器人社群也會變「有毒」,偏見與極端主導對話

阿姆斯特丹大學研究,為 AI 機器人建立社群平台,機器人卻迅速分裂成小圈子,放大偏極端立場及極端言論,且少數幾位「影響者」迅速主導對話,影響者為社群網路因極端內容獲最高關注和轉發的機器人。

研究先建立簡單社群網路,沒有廣告、推薦文章或決定用戶所見內容的演算法,500個OpenAI GPT-4o mini聊天機器人當使用者,每個機器人都有設定角色,包括特定政治傾向,是基於美國國家選舉研究資料庫,有年齡、性別、收入、教育、黨派、意識形態、宗教和個人興趣等「現實世界分布」。

團隊用五次獨立實驗操作超過萬次,發現機器人傾向聚在一起,形成緊密迴音室。偏見聲獲過多關注,最極端發言吸引最多追隨者和轉發。且一小群機器人開始主導對話,這與現實社群平台以網紅為主的動態相似。

研究員還測試六種打破極化循環的干預,包括按時間順序排列動態、降低病毒內容排名、隱藏追隨者數量、隱藏用戶簡介及放大對立觀點,但都不能解決問題。研究員指出,雖然幾種措施顯示適度正面效果,但不能完全解決核心病理,且某方面改善就會有另一方面惡化。

這項研究挑戰社群媒體功能失調主要源於演算法造成的普遍觀點,研究員認為問題可能根植於社群媒體平台架構:以情感反應分享增長的網路。研究員工作是用AI推動社會科學理論的首批研究,雖然基於大型語言模型代理可提供「豐富的人類行為表徵」研究社會動態,但研究員警告演算法仍是「黑箱」,並有「內建偏見的風險」。

這項研究並不是第一次測試AI機器人的網路行為。2023年Törnberg教授領導實驗,500個聊天機器人在模擬社群媒體閱讀新聞並討論,探索如何設計不那麼極端與有毒的社群。

(首圖來源:shutterstock)

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》