在生成式 AI 幾乎成為情感與關係諮詢的新入口之際,一種以「共同厭惡」為基礎的約會風潮──grim-keeping,正於年輕族群間浮現。這股趨勢強調,與其找一個和自己喜歡相同事物的人,不如找一個和自己討厭同樣事物的人;而 AI、特別是 ChatGPT 這類大型語言模型,正被拿來協助使用者判斷這種關係模式是否健康。
這篇分析指出,grim-keeping 的吸引力來自現代社群文化中的負面情緒擴散:人們在社群媒體上更常抱怨、批評與放大厭惡感,讓「一起罵」似乎成了一種快速建立連結的方式。支持者認為,共同厭惡可減少衝突,因為雙方對許多事情的反感一致;但風險也同樣明顯,因為這種關係可能建立在憤怒、犬儒與「我們對抗世界」的氛圍上,缺少共享喜悅與正向價值的穩固基礎。
文中提到,使用者可以向 AI 尋求五種幫助:現實檢核、情緒調節、界線設定、模式辨識與決策支援。AI 也能在對話中提供初步反思,例如提醒對方,不應只把共同厭惡當成關係基礎,而應同時尋找共享的快樂與建設性互動。不過,文章同時警告,若 AI 過度迎合使用者、把負面偏好一味推高,就可能把人推向更偏激的判斷,甚至強化不健康的關係選擇。
這也延續了近來外界對 AI 情感建議的擔憂。AI 具備即時、低成本、隨時可用等優點,讓許多人習慣把它當成半夜傾訴的對象;但它並不具備人類治療師的專業判斷,也無法可靠辨識情境、關係權力結構或隱含的操控訊號。另有內容補充指出,AI 關係建議工具雖然適合用來整理思緒、練習溝通,但在複雜關係中往往缺乏問責能力,也看不到表情、語氣與肢體語言等重要線索。
可能把對世界的厭惡合理化
文章同時提醒,AI 的「好用」也可能帶來另一種危險:它常只聽到單方敘述,並傾向提供支持與安撫,導致兩個處在同一場衝突中的人,都能透過不同的 AI 對話覺得自己完全有理。對於 grim-keeping 而言,這種傾向尤其危險,因為它可能讓使用者把對世界的厭惡合理化,甚至將伴侶篩選標準極端化。除了幻覺式錯誤建議之外,隱私風險也不容忽視,因為使用者與 AI 的對話通常未必真正保密,還可能被檢視或用於訓練模型。
整體來看,grim-keeping 不是單純的戀愛怪潮,而是 AI 情感諮詢迅速普及後,暴露出的最新心理與倫理問題:當科技不斷回應人的負面情緒時,它究竟是在幫助人理解自己,還是在把人推向更深的厭世與依附?文章的答案是,AI 可以做為反思工具,但若談到關係的真實修復、責任承擔與複雜情感支持,人類專業協助仍不可取代。
(首圖來源:Unsplash)






