人工智慧系統雖然能快速辨識和標記影像,不過近來卻愈來愈多質疑,認為 AI 有偏見。最近 Google 有鑑於此,停用圖片辨識 AI 工具的男女標籤,減少性別歧視。
Google 最近向開發者公告,Cloud Vision API 工具將不再使用「男人」和「女人」標籤,而改為類似「人」這類較籠統的標籤,避免 AI 系統的偏見。Google 解釋,由於性別有時很難以外觀判斷,因此決定根據 Google《人工智慧原則》第二條「避免製造或加強不公平偏見」,移除相關標籤。
Google 的圖片辨識系統常有爭議,早在 2015 年就有人指黑人辨識成大猩猩,後來 2018 年仍然有人發現問題。之後 Google 制定《人工智慧原則》管理人工智慧開發,希望更有效避免偏見等情況出現。
(本文由 Unwire HK 授權轉載;首圖來源:pixabay)