最新研究顯示,生成式人工智慧(AI)及大型語言模型(LLMs)又面臨嚴峻安全威脅:僅需少量惡意數據,即可對模型「數據毒化」,等於內建後門,讓惡意攻擊者操縱 AI 做不法行為。 繼續閱讀..
生成式 AI 又有新威脅:一小滴惡意數據竟導致全系統中毒 |
| 作者 TechNews 編輯台|發布日期 2025 年 10 月 30 日 7:10 | 分類 AI 人工智慧 , 資訊安全 , 開放資料 |
生成式 AI 又有新威脅:一小滴惡意數據竟導致全系統中毒 |
| 作者 TechNews 編輯台|發布日期 2025 年 10 月 30 日 7:10 | 分類 AI 人工智慧 , 資訊安全 , 開放資料 | edit |
最新研究顯示,生成式人工智慧(AI)及大型語言模型(LLMs)又面臨嚴峻安全威脅:僅需少量惡意數據,即可對模型「數據毒化」,等於內建後門,讓惡意攻擊者操縱 AI 做不法行為。 繼續閱讀..
AI 模型也能被「洗腦」?研究曝僅 250 份惡意文件就能控制 ChatGPT 回應 |
| 作者 TechNews 編輯台|發布日期 2025 年 10 月 19 日 11:30 | 分類 AI 人工智慧 , 網路 , 資訊安全 | edit |
在最新的研究中,Anthropic、英國 AI 安全研究所及艾倫·圖靈研究所的研究人員發現,大型語言模型(如 Claude、ChatGPT 和 Gemini)能夠從僅 250 份被污染的文件中獲得後門漏洞。這項研究的結果顯示,無論模型的大小如何,攻擊者只需插入少量的惡意文件,就能夠操控模型的回應方式。
