國外父母開始用 AI 審查保母了,但似乎不太可靠

作者 | 發布日期 2018 年 11 月 28 日 8:15 | 分類 AI 人工智慧 , 人力資源 , 新創 line share follow us in feedly line share
國外父母開始用 AI 審查保母了,但似乎不太可靠


找保母是棘手事,因為要從幾面之緣判斷一個陌生人能否照顧不具自理能力的老人或小孩從來都不容易。

現在,人工智慧要來幫我們做決定了。

柏克萊大學的創業團隊 10 月正式推出 Predictim,一種幫助父母篩選保母候選人的服務。

Predictim 會掃瞄一遍保母候選人的 FacebookTwitter Instagram 等社群網路帳號內容,做成一份包括「嗑藥、欺凌/騷擾」等可能性評估的《安全報告》

(Source:Predictim

每個人最重視的都是孩子及所愛之人的安全。我們的目標是透過向父母提供所需工具來緩和這種焦慮,並為他們所愛之人找到最值得信任和可靠的護理者、鋼琴教師、家教等。

Sal Parsa 說,他和 Joel Simonoff 聯合創立的 Predictim 顯然想將這項服務延伸從保母至任何一切和信任相關的私人雇用服務。看「大餅」前,我們不妨先了解一下用過服務的家長怎麼看

父母喜聞樂見,但也心存疑慮

社群網路能體現一個人的個性,但為什麼她(的欺凌指數)是 2 分而不是 1 分呢?

Jessie Battaglia 對《華盛頓郵報》說。她是一位 29 歲的母親,她用 Predictim 測試了一下 1 歲兒子的保母。

這個一次 24.99 美元的服務告訴她,她很滿意的保母在「欺凌、騷擾、態度不好和不尊重人」方面拿到 2 分,5 分為最危險。這下子讓原本心滿意足的她擔心起來,卻無法親自檢查到底是什麼因素導致保母「得高分」。

另一位母親也遇到類似情況。在她看來,這個服務的問題在於,她無法判斷演算法究竟是搜尋到候選人在社群網路參考一些電影台詞或歌詞等流行文化用語,還是真的找到能反映候選人有欺凌傾向的發言。

同時 Battaglia 兒子的保母 Malissa Nielsen,也就是被打了「2 分」的 24 歲女孩,對這個服務很不滿:

電腦並沒有情感,又怎能評判所有事情?

Nielsen 每週去一次教堂,一句粗話都不說,現在正在攻讀早期教育專業,以後還希望開一家幼稚園。她明白父母想多了解照顧孩子的人,但也對自己有信心,所以溝通後同意讓兩個聘請她的家庭看她的社交帳號,但並不知道他們會用演算法評測。

需要說明的是,歐美當保母的大多都是年輕人。你可以說社群網路記錄了很廣泛的個人資訊,但發表的內容包含很多「哏」或諷刺的話,演算法會不會誤解?

鑑於演算法評測過程就是「小黑箱」,沒有人確定是什麼影響演算法判斷。

這也是為什麼 Parsa 說這份測試應該是輔助資料,「結果可能準或不準反映保母的真實個性。」

薛丁格貓的信任和難以察覺的歧視

看到這裡,你也許會說「別用就好啦!」但換位思考,如果需要請陌生人當保母,有這種工具幫你偵測,你能否忍住?據保母仲介平台 Care.com 調查50% 父母最後沒為孩子找保母就是因為找保母的過程壓力太大,難以掌控。

一旦走上「我先測試看看,再判斷準不準確」,就會走進「薛丁格貓的信任」領域。

如果你要用這工具,但保母不願意給社交帳號授權,那你會懷疑他們是否有隱情(即便人家只是重視隱私);如果你很喜歡這個保母,卻像 Battaglia 莫名測出「2 分」,你也控制不了懷疑和擔憂,即使這個分數準確度無從斷定。

此外,不少人工智慧領域專家更擔心的是,這類別的演算法很可能會默默增強各種歧視問題,亞馬遜的人工智慧演算法引擎之前就爆出性别歧視:它不喜歡女性應徵者。

由於亞馬遜的招聘演算法最開始的訓練素材是公司過去十年來的履歷,由於科技業原本就是由男性主導,所以演算法也學到這個不成文定律,主動給含有「女性」關鍵詞的履歷評低分。

現在,亞馬遜放棄了招聘演算法,但新創公司 Fama 為上百家員工人數超過 1 千人的公司提供服務,評估員工和潛在雇員的社交帳號資訊。稍微好點的是,Fama 會整理一份「問題發言」連結報告,公司可自行判斷審查。

從這個角度來看,Fama 像「篩選」,Perdictim 則是「判斷」。但沒有「問題推文」出處以二次審查,對父母而言問題也沒想像中大。

住在舊金山的 Diana Werner 是兩個孩子的母親,她認為 Perdictim 能為找保母的父母「買個安心」,並相信保母也應該分享社交資訊讓父母分析。

有背景調查固然好,但 Perdictim 還能深度剖析一個人。(在我家附近,肯定)100% 父母都想用這個服務,我們都想要完美的保母。

(本文由 愛范兒 授權轉載;首圖來源:Unsplash

延伸閱讀: