Google 圖片辨識 AI 工具將不再標記男女

作者 | 發布日期 2020 年 02 月 24 日 7:15 | 分類 AI 人工智慧 , Google , 軟體、系統 line share Linkedin share follow us in feedly line share
Google 圖片辨識 AI 工具將不再標記男女


人工智慧系統雖然能快速辨識和標記影像,不過近來卻愈來愈多質疑,認為 AI 有偏見。最近 Google 有鑑於此,停用圖片辨識 AI 工具的男女標籤,減少性別歧視。

Google 最近向開發者公告,Cloud Vision API 工具將不再使用「男人」和「女人」標籤,而改為類似「人」這類較籠統的標籤,避免 AI 系統的偏見。Google 解釋,由於性別有時很難以外觀判斷,因此決定根據 Google《人工智慧原則》第二條「避免製造或加強不公平偏見」,移除相關標籤。

Google 的圖片辨識系統常有爭議,早在 2015 年就有人指黑人辨識成大猩猩,後來 2018 年仍然有人發現問題。之後 Google 制定《人工智慧原則》管理人工智慧開發,希望更有效避免偏見等情況出現。

(本文由 Unwire HK 授權轉載;首圖來源:pixabay

延伸閱讀:

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》