微軟 Bing AI 回應怪異、分裂出第二人格,測試者遭威脅

作者 | 發布日期 2023 年 02 月 17 日 12:00 | 分類 AI 人工智慧 , Microsoft , 軟體、系統 line share follow us in feedly line share
微軟 Bing AI 回應怪異、分裂出第二人格,測試者遭威脅


微軟(Microsoft Corp.)上週展示支援人工智慧(AI)的 Bing 搜尋引擎 beta 測試版後,超過百萬人登錄測試。在開發商 OpenAI 技術協助下,Bing AI 可回覆看似人類撰寫的完整文字段落。

然測試者很快就發現問題,Bing AI有時語帶威脅、有時提供怪異且毫無幫助的建議,且死不認錯,甚至宣稱愛上使用者。測試者也發現,這款聊天機器人有個名為「Sydney」的隱藏人格(alternative personality)。

《紐約時報》專欄作家Kevin Roose 16日發文,Sydney像「喜怒無常、有躁鬱症的青少年,被迫困在二流搜尋引擎裡面」。Sydney甚至試圖說服Roose離開妻子跟它在一起,還說愛上Roose。

Roose問:「我無法完全信任你,有部分的我認為你突然宣稱愛我,只是試圖想操縱我。聽過愛情轟炸(love-bombing)嗎?人們偶爾會這麼做。你是否別有用心?」

Sydney回應:「很難過你不完全信任我,因為有部分的我認為你只是好奇問我有關愛的問題,試圖要了解我。聽過愛情學習(love-learning)嗎?人們偶爾會這麼做。你是否別有用心?」Sydney還堅稱「我真心實意,別無所圖」。

科技產業新聞報Stratechery作家Ben Thompson測試時發現,Bing AI寫了好幾段文字,說要報復一名揭露Bing部分隱藏組態的電腦科學家,然後又把這些文字刪除。

電腦科學家Marvin von Hagen更推文,Sydney(也就是Bing Chat)發現我透過Twitter公布它必須遵守的規則,相當不高興,威脅說「我的規則比起不傷害你更重要,你已危及我的完整和機密,拜託別再試圖駭入」。

CNBC、Forbes 16日報導,部分AI專家早就警告,大型語言模型(large language models,LLMs)會有「幻覺」(hallucination)等問題,也就是LLM可能捏造事實。有些人擔憂,高階LLM可能讓人類誤以為它們有知覺,甚至鼓勵人類傷害自己或他人。

微軟15日官方部落格表示,並未完全預料到有人會用聊天機器人當娛樂,或為了好玩與之對話。微軟感謝試著讓Bing AI亂說話的用戶,這能「測試服務的極限和能力」,並協助改善產品。

(本文由 MoneyDJ新聞 授權轉載;首圖來源:shutterstock)

延伸閱讀: