反擊 AI!新工具幫藝術家「毒害」訓練數據

作者 | 發布日期 2023 年 10 月 25 日 8:30 | 分類 AI 人工智慧 , 軟體、系統 line share follow us in feedly line share
反擊 AI!新工具幫藝術家「毒害」訓練數據


生成式 AI 普及提升企業效率和降低成本,不過對藝術家可是衝擊生計。為了反擊,有研究開發出污染訓練數據的工具,讓藝術家作品加入這些「毒素」對抗。

名為「Nightshade」的工具由芝加哥大學電腦科學教授 Ben Zhao 領導開發,可讓藝術家數位作品檔案加入特別設定的畫素,肉眼難發現,不過如果用來 AI 訓練,就會污染數據,讓 AI 無法有效辨識內容,如狗圖加入特別畫素後,AI 會以為是貓。Nightshade 數據污染技術難防禦之處,在 AI 模型開發人員需找出並剔除任何包含特殊畫素的圖片,因肉眼辨識不易,數據爬取工具也難檢測,要預防極為困難。

研究員承認,結果可能用於惡意目的,但希望幫助藝術家從 AI 公司手中奪回創作權,透過強大威懾力對抗不尊重藝術家版權和智慧財產權的 AI 公司。

(本文由 Unwire Pro 授權轉載;首圖來源:Image by Freepik

延伸閱讀: