
生成式 AI 使用了不少藝術家作品訓練,引起藝術族群不滿。某研究團隊去年推出 工具 Nightshade,作品可加入「毒素」,一旦拿去訓練就會污染資料庫,推出五天下載量就高達 25 萬次。
芝加哥大學電腦科學研究人員 Ben Zhao 領導團隊開發 Nightshade 工具,原理是畫素層級加入數據,不論人類還是 AI 系統也無法簡單辨識,但如果哪拿去訓練 AI 模型,可讓模型分析能力下降,做出錯誤判斷。如果加入 Nightshade 作品夠多,可對 AI 訓練造成一定妨礙。
(Source:arxiv.org)
Ben Zhao 表示,開發 Nightshade 目標是讓藝術家有反擊工具,提升未經許可使用內容去訓練的成本,讓 AI 開發商選擇支付藝術家合理授權費。團隊去年也推出 Glaze 工具,同樣可加入隱藏畫素避免風格被機器學習算法複製。他們正在開發結合 Glaze 和 Nightshade 的工具,仍需更多測試才可推出。
(本文由 Unwire Pro 授權轉載;首圖來源:Unsplash)