為了防止用戶想不開,Facebook 想了 3 個辦法

作者 | 發布日期 2019 年 09 月 12 日 17:00 | 分類 Facebook , 社群 , 網路 follow us in feedly


根據世界衛生組織的一份報告,每年約有 800 萬人因自殺而死亡,每 40 秒就有一人自殺死亡,而社群媒體上的自殺、自殘等潛在暴力危險內容,正在加劇這種狀況。

因此,在 10 日的世界預防自殺日,Facebook 公布了一系列措施,來幫助那些有自殺或自我傷害傾向的人,並最大程度避免其他人受其影響。

這是 Facebook 聯合美國、英國、加拿大、墨西哥、菲律賓、印度、泰國等多國的相關專家研討後得出的方案,Facebook 還專門僱用一名健康專家加入安全政策團隊,專門分析 Facebook 政策和應用軟體對人們心理健康的影響。

首先,人們在 Facebook 和 Instagram 上,將不能再分享和傳播自我傷害的圖片,相關內容也很難在 Instagram 上搜尋到,Facebook 更不會讓這些內容出現在推薦裡。

而且,跟飲食失調相關的內容也會被禁止,包括與不健康減肥相關的術語,側重於描繪肋骨、頸骨、肩胛骨、凹陷的胃、突出的脊椎等訊息。

平台上還會出現一個「敏感度螢幕」,就是當有潛在危險圖片出現時,用戶可以選擇看或不看,以避免人們在無意中看到讓人不安的圖片,造成心理傷害。

另外,Facebook 還第一次嘗試從平台上分享「人們如何談論自殺」的公共數據,這是透過社群媒體監控工具 CrowdTangle 實現的,它一般提供給學術研究人員使用,現在則可以讓專家機構和學術研究院藉此來發現 Facebook 和 Instagram 上的不良訊息,然後開始研究訊息,對用戶進行監督。

(Source:Unsplash

不過從另一方面來看,人們在社群媒體上公開討論自己的情況,並得到網友、家人、朋友的關注,也有益於他們對其自殺心理進行疏導。

但在網路上發聲並不等同於在日記上記錄,一段衝擊力極大的文字或圖片,可能引發大規模的群體效應,科學研究也證明了自殺可能具有傳染性,群體自殺爆發是會發生的真實情境。

所以從 2019 年 4 月到 6 月,Facebook 的工作人員就透過機器學習系統加人工審核,對超過 150 萬件自殺和自傷內容進行了移除或模糊處理,並在用戶報告之前發現了超過 95% 的自殺和自傷內容。

同一時期,他們在 Instagram 上也對超過 80 萬條此內容進行了介入,有時還會將把心理健康內容發給創建自殺內容的個人,或在危急情況下,向用戶所在的地方當局發出警報。

但為了讓有自殺自殘傾向的人們有一個表達和傾訴的管道,並能聽到如同朋友和家人一般的意見,Facebook 最後還將在安全中心和 Instagram 上加入一個名為 #chatsafe 的線上交流指南平台。

這個指南平台由年輕人來制定,他們對這些敏感話題更有切身的認知。當有人搜尋自殺自殘等內容時,就能看到裡面的內容資源獲得幫助,這也會為那些有自殺想法、行為或相同感受的人建立更多心理上的支柱,並能線上進行交流和開導。

其實不只 Facebook,其他大型公司如 YouTube 和 Twitter,也面臨著來自立法者和用戶的輿論壓力,要求他們嚴厲打擊來自其平台的有毒內容。

所以在 9 月,YouTube 表示已經禁止超過 17,000 個帳號傳播「仇恨內容」;而 Twitter 針對其認為違反其用戶協議的內容,推出了一系列新政策變更;Facebook 除了 10 日公布的新動向,早在 2017 年 11 月就開始在全球範圍內推出 AI 預防自殺工具,以保證第一時間回應發表自殺貼文的用戶。

在 Google、Facebook 、Twitter 各自的平台上,也設置了求助熱線號碼,當人們搜尋「自殺」一詞,號碼就會在頁面第一列位置快速出現。

無論是為了讓網路環境更健康,還是要保持自身平台保持長期發展,對這些科技大公司來說,只要能保護用戶安全,怎麼做都不為過。

(本文由 愛范兒 授權轉載;首圖來源:shutterstock)

延伸閱讀: