
在當今數位時代,人工智慧(AI)聊天機器人已成為人們日常生活的一部分,但隨之而來的安全隱憂也不容忽視,惡意駭客可能透過餵食錯誤資料,使 AI 產生有害行為。微軟的安全專家 Ram Shankar Siva Kumar 在最近的 RSAC 會議上分享了四個關於如何辨識被污染的 AI 聊天機器人的重要建議,幫助使用者在使用這些工具時保持警惕。
1. 選擇大型知名公司
如OpenAI的ChatGPT或微軟的Copilot,這些工具相對更值得信賴。這些公司擁有更強的資源和團隊來應對潛在的安全漏洞,並且其AI的開發目標通常更為明確。
2. 認知AI會「犯錯」
使用者應該意識到AI可能會生成錯誤資訊。當提供資訊時可能會錯誤地將不正確的內容當作事實,這在某些情況下可能會導致危險的後果,特別是在醫療建議方面,因此使用者應對AI提供的建議保持懷疑態度。
3. 了解AI的有限性
AI僅是根據其找到的資訊進行回答,這些資訊的正確性以及品質取決於其來源。使用者應該多參考資料來源,因為不當的上下文或不可靠的資料可能會導致錯誤的答案。
4. 學會批判性思考
培養批判性思維至關重要。使用者應該時刻質疑所獲得的資訊是否正確,並學會交叉檢查多個的資料來源,以確保獲得的資訊是可靠的。這些建議不僅適用於AI聊天機器人,也應該延伸生活當中。
隨著AI技術的快速發展,保持警惕並學會如何安全地使用這些工具將是每個使用者的責任。
- Can you spot a poisoned AI chatbot? 4 tips from a Microsoft security expert
- Why experts say AI companions arent safe for teens — yet
(首圖來源:Created by Freepik)