AI 心理健康資料該不該集中管理?決策出現分歧

作者 | 發布日期 2026 年 02 月 08 日 9:30 | 分類 AI 人工智慧 , 科技政策 line share Linkedin share follow us in feedly line share
Loading...
AI 心理健康資料該不該集中管理?決策出現分歧

在當前的科技環境中,人工智慧(AI)在心理健康領域的應用日益普及,也引發決策者與立法者關注:該如何利用這些私人對話資料。根據最新報導,部分決策者主張,應將 AI 生成的心理健康對話彙整至一個集中式資料庫,以便評估社會心理健康狀況,並可能用於推動公共心理健康政策與投資。

隨著生成式 AI 與大型語言模型(LLMs)興起,愈來愈多人選擇使用這些工具獲取心理健康建議。據估計,僅 ChatGPT 的每週活躍使用者就超過 9 億人,其中相當一部分使用者涉及心理健康話題。這種普遍的使用方式,使 AI 成為人們隨時隨地獲取心理健康支持的便捷途徑。

不過,這一提議也引發隱私與倫理上的重大疑慮。許多人對於自己的私人對話被收集並儲存在國家級資料庫中感到不安,這可能對個人隱私造成嚴重侵害。儘管 AI 開發者通常會在使用條款中聲明可存取使用者資料,但多數使用者並不清楚,他們的對話可能被用於後續的 AI 訓練或其他目的。

目前,美國只有少數幾個州已制定與 AI 心理健康指導相關的新法律;國會也正試圖建立一部涵蓋 AI 心理健康建議的聯邦法律,但至今尚未取得實質進展。這使各州在如何處理 AI 生成的心理健康資料方面,出現顯著差異。

(首圖來源:shutterstock)

延伸閱讀:

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》