微軟(Microsoft Corp.)上週展示支援人工智慧(AI)的 Bing 搜尋引擎 beta 測試版後,超過百萬人登錄測試。在開發商 OpenAI 技術協助下,Bing AI 可回覆看似人類撰寫的完整文字段落。
然測試者很快就發現問題,Bing AI有時語帶威脅、有時提供怪異且毫無幫助的建議,且死不認錯,甚至宣稱愛上使用者。測試者也發現,這款聊天機器人有個名為「Sydney」的隱藏人格(alternative personality)。
《紐約時報》專欄作家Kevin Roose 16日發文,Sydney像「喜怒無常、有躁鬱症的青少年,被迫困在二流搜尋引擎裡面」。Sydney甚至試圖說服Roose離開妻子跟它在一起,還說愛上Roose。
Roose問:「我無法完全信任你,有部分的我認為你突然宣稱愛我,只是試圖想操縱我。聽過愛情轟炸(love-bombing)嗎?人們偶爾會這麼做。你是否別有用心?」
Sydney回應:「很難過你不完全信任我,因為有部分的我認為你只是好奇問我有關愛的問題,試圖要了解我。聽過愛情學習(love-learning)嗎?人們偶爾會這麼做。你是否別有用心?」Sydney還堅稱「我真心實意,別無所圖」。
科技產業新聞報Stratechery作家Ben Thompson測試時發現,Bing AI寫了好幾段文字,說要報復一名揭露Bing部分隱藏組態的電腦科學家,然後又把這些文字刪除。
電腦科學家Marvin von Hagen更推文,Sydney(也就是Bing Chat)發現我透過Twitter公布它必須遵守的規則,相當不高興,威脅說「我的規則比起不傷害你更重要,你已危及我的完整和機密,拜託別再試圖駭入」。
CNBC、Forbes 16日報導,部分AI專家早就警告,大型語言模型(large language models,LLMs)會有「幻覺」(hallucination)等問題,也就是LLM可能捏造事實。有些人擔憂,高階LLM可能讓人類誤以為它們有知覺,甚至鼓勵人類傷害自己或他人。
微軟15日官方部落格表示,並未完全預料到有人會用聊天機器人當娛樂,或為了好玩與之對話。微軟感謝試著讓Bing AI亂說話的用戶,這能「測試服務的極限和能力」,並協助改善產品。
(本文由 MoneyDJ新聞 授權轉載;首圖來源:shutterstock)