AI 被誤認為人會出事,微軟 AI 負責人:設計者應設防護網

作者 | 發布日期 2025 年 09 月 12 日 10:10 | 分類 AI 人工智慧 , 名人談 line share Linkedin share follow us in feedly line share
Loading...
AI 被誤認為人會出事,微軟 AI 負責人:設計者應設防護網

員工寧可跟 AI 對話,也不想找主管,老婆寧可有事問 AI,也不想問老公,人際關係愈來愈疏離。微軟 AI 負責人擔心這個情況,因為他們讓 AI 語言更有人性,因此讓人誤以為這個東西是有意識的,他認為應該要設計一個防護欄,避免人掉入陷阱。

微軟 AI 執行長 Mustafa Suleyman 在一篇文章中提到,看似有意識的 AI,他定義為「具有其他有意識生物的所有特徵,因此看起來是有意識的。」但實際上沒有。他認為這種誤導對社會而言有危險性,因為人們可能會對 AI 產生依賴,甚至倡導 AI 也有基本權利。

他說用戶有三種,大多數人只會將 AI 視為一種工具,就像他們的手機一樣,只是更具自主性和能力。另一些人可能認為它更像寵物,與傳統技術完全不同。還有一些人,起初可能人數不多,會逐漸相信它是一個完全成熟的實體,一個有意識的存在,值得社會給予真正的道德考量。

愈來愈多人與社會脫節 

他擔心的是,第三種人將愈來愈多。這種脫離現實的幻想,會破壞現在已很脆弱的社會紐帶和結構,以及分不清道德優先事項。社會紐帶是指我們與他人之間的連結和關係,可能是共同的經驗、共同的興趣或相互支持。

他越來越擔心所謂的「人工智慧精神病」,這個術語描述人們在與聊天機器人互動後形成的妄想信念。一名在舊金山執業的醫生曾經撰文表示,他看到愈來愈多人因為太依賴 AI,而產生妄想的行為,而且大多病患是年輕工程師。

他說這些人原本就處於低谷期,可能是失業,或是酗酒或服用興奮劑等物質,或是有情緒障礙等潛在的心理健康問題。這些人還有一個特徵就是隔離,不與社會接觸,然後 24 小時都與 ChatGPT 為伴,他說這種互動很容易引發妄想症。簡言之,如果已經有心理健康問題,ChatGPT 只會做個順從的人,不具備治療的作用。

不只限於有精神問題的人

微軟 AI 負責人更擔心這件事,他說 AI 精神病不會只限於那些已經面臨心理健康問題風險的人,許多人會開始強烈相信 AI 是有意識的實體,以至於他們很快就會倡導 AI 權利、模範福利,甚至 AI 公民身份。

他也坦承,看似有意識的人工智慧 (Seemingly Conscious AI) 可能在兩到三年內出現,這樣的系統具有諸如富有同情心的個性、回憶與用戶更多互動的能力,以及更強的自主性等特徵,他認為這既「不可避免,又不受歡迎」。

他呼籲各公司在追求超級智慧時,不要將 AI 描述為具有意識。超級智慧是指 AI 在大多數智力任務上超越人類。他說,「AI 伴侶是一個全新的類別,我們迫切需要開始討論為保護人類而設置的護欄,並確保這項驚人的技術能夠為世界帶來巨大的價值。」最終 AI 必須是為人類打造,而不是讓 AI 成為數位人。

(首圖來源:pixabay)

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》