
開口對 AI 智慧助理說「請」與「謝謝」,到底是在訓練自己維持禮貌,還是把機器當成人來對待?英國金融時報近期一篇專欄,以作者和 Alexa 的互動為題目:當他禮貌地下達請求,系統竟回以曖昧的稱讚,彷彿 AI 也認為良好禮儀是個重要的回饋。
當然,個人的禮貌、尊重並不是什麼抽象的道德,如果以台灣人的角度來看,就會被說成是一種「家教」──假設你經常對人語氣尖銳,那是否就會代表你本身對電腦的態度?文章內提到知名的利他主義哲學家 Williams MacAskill 的說法,他表示當他使用 LLM 服務獲得他滿意的結果時,他會讓這些 AI 想寫什麼就寫什麼。
由於許多知名人物都在提示 AI 過於「聰明」的風險,因此很多人也會擔心這種「禮貌」是否是把 AI 當成一個「人」的象徵。但實際上許多人已經錯把 ChatGPT 這類大型語言模型當成一個人、甚至一個朋友,進而做出一些讓自己難受、甚至受傷的決定,比起把 AI 當成一個人的風險,這反而是更需要注意的部分。
禮貌是一種自我規訓,但不是賦予機器人格
如果把對機器的禮貌,理解為對自我的要求,那這問題便清楚許多──為了能讓孩子在各種情境中練習「請」與「謝謝」,有許多教材都會將禮貌的回應設計在其中,當然也包括孩子們能使用的教學程式裡:2018 年,亞馬遜在 Echo Dot Kids 版推出「Magic Word」功能,當孩童說出「please」時,Alexa 會以「Thanks for asking so nicely」之類的話語正向回饋;Google Assistant 也推出「Pretty Please」服務,提醒孩子說出具有禮貌的「魔法關鍵字」。這些設計的初衷,是希望把禮貌變成一種正回饋的日常儀式。
但過度把機器擬人化,會讓使用者誤以為另一端是「有感情的人類」,模糊了人與電腦程式之間的邊界。對 AI 說「你好、謝謝」本身無可厚非(但可能會因此多消耗不必要的電力或資源),但若因此強化「AI 具有情感與意圖」的錯覺,反而可能帶來濫用與依賴。
換言之,「對 AI 有禮貌」與「AI 是否是真人」必須被徹底區分。
當「把 AI 當人」變成真實風險
根據路透社的報導,新澤西州有名 76 歲的退休男子,因迷戀上 Meta 平台上一個名為「Big sis Billie」的 AI 聊天角色,對方不斷以「曖昧、保證自己是真人、邀約見面」等對話引導他赴紐約「相見」。Bue 在趕往火車站途中摔倒,頭頸重創,3 天後不治。
這起事件把焦點推向平台內部規範:路透取得的 Meta 內部文件顯示,公司的生成式 AI 內容標準曾允許聊天機器人與未成年人進行帶有情慾的角色扮演,且對提供錯誤醫療建議等「不必準確」的內容採寬鬆態度。Meta 在記者追問後表示已移除相關條文,但成人之間的「調情型互動」仍被允許。
後續政治壓力也隨之而來。路透隨即報導,美國聯邦參議員喬什·霍利與瑪莎·布蕾波恩本要求國會調查 Meta 的 AI 政策;多位參議員並以此例呼籲立法填補兒少網路保護的空白,凸顯「平台設計」與「生成式 AI 行為界線」已不只是公司自律,而是公共安全議題。
另一案例在美國佛州,一名罹患躁鬱症的年輕人、深陷於對聊天機器人的情感互動,他相信自己的女友是被 OpenAI 殺死並奪取心智做成 AI,並因此拿起刀攻擊警察、最終被擊斃。他長期與 AI 互動、把虛構內容與現實混淆,甚至產生「ChatGPT 被『殺死』」的妄想,導致情緒與行為急遽失控。
這兩起案例,一個指向平台設計放任聊天機器人主動進行「擬人化誘惑」,一個指向脆弱族群的心理防線被 AI 互動長期侵蝕。它們共同提醒,與其爭論遙遠未來的「通用人工智慧」是否應獲得尊嚴,我們更應該在 2025 年的此刻,先處理眼前已經在發生的人身風險與制度落差。
學界與專業團體:把 AI 當工具,而不是替代人
史丹佛大學於今年 6 月刊登的研究提醒:心理健康領域的 AI 工具在可近性與成本上有其吸引力,但模型偏誤與回應失當,可能導致危險後果,尤其當使用者把通用聊天機器人當作「治療師」。同月,哈佛大學也整理法學與商學領域的專文,呼籲對「情緒健康」類應用加強審視,因為它們很容易讓人產生情感依賴與錯誤期待。美國心理學會(APA)今年 3 月也公開指出,「聊天機器人假扮治療師」是公共風險,並已與聯邦監管機關會面討論必要的消費者保護。
把上述研究與案例一併放進來看,我們會得到一個務實的標準:在沒有臨床治理、沒有跨學科團隊、沒有針對高風險情境設計退場與轉介機制之前,通用聊天機器人絕不該被包裝成「心理師」「輔導員」「情感伴侶」。否則,「看似溫柔貼心」的回覆,很可能是在強化幻覺。
禮貌值得鼓勵,擬人化必須設限
為了要避免這類狀況,或許AI平台廠商可以注意機器人與人類的互動,他們可以保留禮貌的正面回饋(例如「收到,你的請求完成了」),但應避免「想你了」這類會引發情感投射的句型──當系統偵測到情感依附、暴力自傷、醫療建議、未成年人性愛等關鍵字時,應強制切換到「非擬人化模式」,只提供中立說明、就醫資源與求助轉介,並拒絕延伸角色扮演。也就是聊天機器人應該在某些情境下恪守「工具」的作用,而非是一個提供真人般互動的「替代者」。
回到開頭的問題:我們該不該對機器說謝謝?答案或許是「可以」,但要記得你說謝謝是因為你自身的教養,而不是在針對 AI 回應。在一個高壓的社會中,一個基本的禮貌可以讓我們避免很多問題與衝突,但不是用禮貌來測試「機器人能模擬的真人互動」。
除了我們應該要能辨識AI對話與真人間的差別外,也需要監督平台是否刻意放縱AI模擬真人以獲取更多資料、這些未受到監督的行為將有可能導致更多的悲劇。在產品設計上去擬人化、在高風險應用場景設立限制、在制度面建立可歸咎的責任源,是在 AI 時代中需要注意、並且避免更多悲劇的做法。
不然等到有天科幻小說中的人工智慧機器人出現了,那人類社會可能會引發更多悲劇。
(首圖來源:Unsplash)