研究發現對抗攻擊方法,可適用多個人工智慧模型

作者 | 發布日期 2019 年 02 月 25 日 7:45 | 分類 AI 人工智慧 , 資訊安全 , 軟體、系統 line share follow us in feedly line share
研究發現對抗攻擊方法,可適用多個人工智慧模型


人工智慧雖然非常強大,不過正如任何電腦系統,都會有缺點和漏洞。最近有研究發現,如果找出一個成功騙過人工智慧模型的攻擊方法,可在另一人工智慧模型奏效。

義大利 University of Cagliari 及美國 Northeastern University 研究人員最近於 arXiv 刊登的論文指出,常見用來欺騙人工智慧神經網路的攻擊,一旦發現在一個人工智慧模型有效,在其他人工智慧模型也同樣有效,變相讓攻擊者可先在風險較低的人工智慧模型測試,找到有效的方式後再實際於資安較嚴格的地方使用。

研究人員表示,這種可轉換性讓攻擊者針對完全不同而未知的模型進行有效攻擊,對現在越來越普及的人工智慧系統是危險的現象。特別是當現在資訊更透明公開,攻擊者了解目標系統的架構,並採用相關開源模型測試也越來越容易。他們也在論文提及如何避免這情況,讓系統設計者更小心,避免遭受攻擊。

(本文由 Unwire Pro 授權轉載;首圖來源:shutterstock)