網路性騷擾太煩人,AI 辨識圖片是不是解方?

作者 | 發布日期 2019 年 09 月 19 日 14:06 | 分類 AI 人工智慧 , 數位內容 , 社群 line share follow us in feedly line share
網路性騷擾太煩人,AI 辨識圖片是不是解方?


網路帶給我們更廣闊的世界,然而這個世界並非總是美好。

如果你想找限制級成人內容,那 Pornhub、(整改前)Tumblr 這類網站總能滿足需求,這是網路世界美好的一面;但如果你只想看嚴肅、與性無關的內容,那評論區或陌生人私訊可能出現的男性性器官圖片或性暗示內容,就屬於性騷擾了。這是網路世界不美的一面。

隨著 Tumblr 轉型,很多成人內容轉移陣地到 Twitter。Twitter 的女性使用者從此開始非自願地收到男性的性器官圖片,她們為這類非自願獲取的內容感到困擾。有研究顯示,英國 18~36 歲女性中,有 41% 都收過未經雙方同意的性圖片。

(Source:pixabay

在這個隨時可能受到性騷擾的世界,女性開發者 Kelsey Bressler 決定改變。她在 Twitter 表示:「不喜歡醒來就看到一張不請自來的男性性器官圖片。」

為此,她曾嘗試和發送這些圖的人溝通,質問對方為何未經允許發送令人不適的圖片,但對方卻再傳一張性器官圖片為回應。

當你被動收到照片時,你會感覺不被尊重。你沒有給他們(發送圖片的人)發圖片的允許,你被強迫接受這些圖片,這是不對的。

Kelsey Bressler 決定自己動手解決這些圖片,她和一位朋友正開發工具,可自動檢測和刪除令人不適的圖片。

Kelsey Bressler 和朋友正在訓練 AI 以篩選和辨識未經允許的非法圖像。計畫目的是將此程序變成專門辨識男性性器官圖片的 Twitter 套件,藉此辨識並限制使用者的私訊內容。但這是 Twitter 目前「敏感媒體政策」不支持的。

(Source:shutterstock)

Twitter 的「敏感媒體政策」過去這些年也有些自相矛盾的歷史。2017 年,《紐約客》作家 Maura Quint 三度收到相同的男性性器官圖片,分別來自 3 個不同帳戶,帳戶名稱和使用者形像都相同。當她向 Twitter 回應這三起事件時,社交平台有三種回應,一次要求她直接報告敏感媒體,一次直接鎖定違規帳戶,還有一次回報未發現違規行為。

不同結果顯示平台處理這類事件缺乏標準和統一流程。Kelsey Bressler 認為社交媒體做的還不夠,「我們多年來一直抱怨這件事。他們不但沒聽進去,也沒有把這件事視為重要的事處理。」

她接受 BBC 訪問時表示,她幾乎每天都能看到這類問題普遍存在,但 Twitter 還沒關注這類問題,也沒有找到合適的解決方案。

如果這項技術能在幾天內問世,我不知道為什麼科技公司沒有帶頭採取類似行動……有人說,簡單的解決辦法是關閉你的訊息──但我們不應該因為少數人,就把自己與世界隔絕。

(Source:Unsplash

目前,Kelsey Bressler 正在訓練和測試自己的 AI。她公布一個電子信箱,邀請男性使用者發送自己的性器官圖片。如果 AI 確認圖片內容為性器官,就會直接刪除。

但很多志願參與的人發送自己的裸體照,團隊不得不暫時關閉電子信箱,然而在關閉前,已經收到 300 多張男性性器官圖片,系統只有兩次沒有成功辨識,一次是陽具上套了個籠子,一次則是陽具蓋著一些發光的東西。

Kelsey Bressler 為了鼓勵男性使用者勇敢「獻身」,還特意做了 T 恤和衛生衣,上面寫著「我為科學上傳了陽具圖片」。

(Source:smartsluts

這現實生活發生的案例很容易讓人想到《矽谷群瞎傳》第四季劇情,劇中角色靳陽做了一個價值 400 萬美元的 App──Not Hotdog,這個 App 用於辨識熱狗,只能給人 Not Hotdog 和 Hotdog 兩種結果。

這聽上去非常雞肋的玩意賣得 400 萬美元,就因為收購的科技公司想用它來辨識陽具圖片。

(Source:App Store

這 App 後來也真的在 App Store 和 Google play 上架,卻被網友用各種圖片測試,出現一大堆錯誤答案。

但不管怎麼說,用 AI 辨識這類性騷擾圖片內容都是看得到的方向。

Kelsey Bressler 也表示,當專案完成時,如果她們的套件對辨識男性性器官有效,她們也願意與 Twitter 分享研究成果。

(本文由 愛范兒 授權轉載;首圖來源:pixabay

延伸閱讀: