近來蘋果(Apple)手機內置的翻譯功能,被中國網友發現將「賠錢貨」(簡體中文)翻譯為「girl」。許多用戶認為這一翻譯結果除了不準確,更可能加劇社會對女性的性別偏見。Apple 已於最快的時間對翻譯結果進行更正。
蘋果翻譯「賠錢貨」誤譯為 Girl,被指歧視女性馬上修正 |
作者 Unwire HK|發布日期 2025 年 01 月 31 日 8:41 | 分類 Apple , 數位內容 , 網路 |
矮化女性和少數種族,OpenAI GPT 模型為何變成 AI 歧視重災區? |
作者 品玩|發布日期 2021 年 02 月 13 日 0:00 | 分類 AI 人工智慧 | edit |
機器學習技術近幾年突飛猛進,許多強大 AI 因此誕生。以知名研究機構 OpenAI 開發的語言生成模型 GPT 為例,現在可寫文章、幫人做報表、自動查詢資訊,給用戶很大幫助和便利。 繼續閱讀..
性別歧視加劇貧富不均!2,000 名最富者資產超越 46 億人 |
作者 MoneyDJ|發布日期 2020 年 01 月 20 日 16:35 | 分類 財經 | edit |
全球貧富嚴重性別歧視,根據國際扶貧發展機構樂施會(Oxfam)發表的最新研究報告,世界前 2,153 大億萬富翁擁有的財富,比全球 60% 人口(合計 46 億人)加起來還多。 繼續閱讀..
Google AI 工具禁止性別特定代名詞,減少偏見風險 |
作者 Unwire Pro|發布日期 2018 年 11 月 29 日 8:15 | 分類 AI 人工智慧 , Google | edit |
AI 經過大量數據輸入做深度學習之後,出現性別或種族歧視的問題,最近受到科技界關注,並推出不同的方法來避免問題發生。Google 就為了減少偏見風險,在新的 AI 工具禁止使用性別特定代名詞。 繼續閱讀..