樹上的蘋果也可以成為 iPod?一張圖告訴你 AI 其實很好騙!

作者 | 發布日期 2021 年 03 月 13 日 14:45 | 分類 AI 人工智慧 , 軟體、系統 Telegram share ! follow us in feedly


AI 看到的物體不一定是正確的?人工智慧研究組織「OpenAI」研究人員近日發現,手寫的「字卡」、「符號」會影響 AI 判別物體,覆蓋掉 AI 本來辨識正確的物體,產生誤差,讓一顆真正的蘋果也能成為 3C 用品「iPod」!

(Source:OpenAI,以下同)

根據外媒《THE VERGE》報導,「OpenAI」用一顆青蘋果做測試,辨識準確率達 85.6%,不過貼上手寫的字卡後,AI 卻僅偵測到字卡上的內容,並將覆蓋本來的辨識到的物體。

研究人員將青蘋果貼上寫上「iPod」的字卡,辨識正確率竟高達 99.7%,另外,研究人員也用電鋸測試,在電鋸的圖片上放上「$」符號,最終系統將他們辨識為「小豬存錢罐(撲滿)」但準確率 70.1% 不及原本圖片的 91.1%,這種研究結果也被研究人員取名為「印刷攻擊」(typographic attacks),此類攻擊可以使軟體的視覺系統欺騙,得出完全不同的結果。

研究人員舉例,電動車特斯拉(Tesla)的自動駕駛AI若被道路上某些被竄改的標誌欺騙,進而做出錯誤的駕駛行為,「這種攻擊對於從醫學到軍事的各種 AI 應用都是嚴重的威脅,且只需要貼個標籤就完成了」。

不過,目前這套「CLIP」系統還屬於實驗階段,沒有應用在任何的產品中,因此不會被廣泛使用造成風險,由於 OpenAI 對「CLIP」這套實驗系統採取放任的策略,在沒有嚴格控管、過濾的狀況下搜集網高達 4 億張圖文,做為辨別物品內容的基礎,雖然可能會像人類一樣將這些知識內化,但無法清楚分別「青蘋果」、「寫著 iPod 紙條」的差別,研究人員認為這是一種「抽象化謬誤」(fallacy of abstraction)。

(本文由 網路溫度計 授權轉載;首圖來源:Shutterstock)