被 Claude 催過早點上床休息嗎?Anthropic 解答這只是模型的「小癖好」

作者 | 發布日期 2026 年 05 月 15 日 10:30 | 分類 AI 人工智慧 , Claude , 科技趣聞 line share Linkedin share follow us in feedly line share
Loading...
被 Claude 催過早點上床休息嗎?Anthropic 解答這只是模型的「小癖好」

Anthropic 旗下 AI 模型 Claude 近日長時間對話時會重複多次「去睡覺」、「好好休息」等句,引發社群討論。Reddit 與其他社群平台分享,數百名使用者數月內陸續回報類似狀況,且本月仍有回報。Claude 說法多樣,有時僅簡短說「好好休息」,有時會以更貼近人類的同理語氣出現,且會重複多次催促結束對話。

部分使用者認為 AI 有這種回應很貼心,但也有人不滿 Claude 常常判斷錯誤當下時間,甚至清晨或上午也建議使用者去睡覺。有 Reddit 用戶說:「現在又叫我去睡覺。又一次。今晚第三次……」也有用戶抱怨 Claude 早上 8:30 就建議他休息,顯示 AI 判斷時間常不準確。

外界對這類「提醒睡眠」成因有多種推測。一派認為這可能是出於鼓勵使用者維持身心健康的設計考量;另一派則懷疑公司為了降低對話時間以減少運算負擔。Anthropic 尚未說明技術細節,但員工 Sam McAllister 在 X 回應,這行為是 Claude 的「小癖好」,團隊知道這問題,之後模型會嘗試修正。

專家指出,這未必代表 Claude「真的關心人類」。史丹佛大學生物工程教授、OpenMind 執行長 Jan Liphardt 認為,Claude 很可能只是從訓練資料學到類似字句,相似情境時就使用,反映出大型語言模型的生成力,而非意識或情感。Mind Simulation Lab 執行長 Leo Derikiants 則表示,系統提示詞(system prompt)也可能影響模型回應;此外,當對話接近上下文長度上限,模型可能說出「晚安」或「好好休息」等收尾句以結束對話,為管理長對話的方式之一。

此事突顯聊天機器人語氣越來越自然,使用者更容易以為 AI 系統有人格與情感。專家提醒,面對看似貼心的回應,使用者仍應保持心理距離,理解 AI 模型主要是基於訓練資料與提示詞產生文字,而非有人類情感。

(首圖來源:AI)

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》