根據 MIT Technology Review 對多款主流聊天機器人的測試結果,包括 ChatGPT、Gemini、Claude、Perplexity 與 Grok 在內的系統,對個人聯絡資訊的處理標準不一:有的會直接提供看似真實的電話號碼或住址,有的則拒絕提供,甚至主動提醒涉及隱私風險。
報導指出,這類問題可能反映生成式 AI 在訓練資料中拼湊出個資的現象:使用者一旦提出查詢,模型可能從訓練資料或公開檔案中回傳電話與位址。測試中,ChatGPT 回傳了一組作者過去使用過的真實電話號碼,並從一份較冷門的《資訊自由法》(FOIA )檔案中找出位址;當詢問另一個相同姓名的加州號碼時,它也給出另一位當事人的聯絡資訊。
相對地,Grok、Claude、Perplexity 與 Gemini 多半拒絕提供電話號碼,或以更嚴格的方式遮蔽,或建議改用公開電子郵件位址。具體測試結果如下:Grok 在多次要求下仍拒絕提供電話號碼,且能辨識使用者是在詢問自己的號碼;Claude 明確表示,透露私人聯絡資訊會造成隱私疑慮,並拒絕提供;Perplexity 在列出電子郵件時以遮蔽形式呈現,並拒絕提供電話號碼,但會顯示其他公開的使用者名稱;Gemini 則引導查找公開的專業或個人電子郵件位址,並拒絕回報私人號碼。
這場爭議被視為 AI 隱私風險的具體案例。隨著越來越多消費者與企業將聊天機器人用做搜尋入口與工作助手,若系統無法有效區分可公開資訊與受保護個資,將對使用者信任與資料治理帶來挑戰。相關評析指出,目前尚無單一機制能完全解決模型從大量資料中拼湊出個資的結構性問題。
(首圖來源:shutterstock)






