馬克祖克柏坐上聽證會,人性成最大考驗

作者 | 發布日期 2018 年 04 月 12 日 13:41 | 分類 Facebook , 社群 , 資訊安全 follow us in feedly

Facebook 讓青少年沉迷,創造一種自我展演的文化,已經讓大人感到非常頭痛,現在 Facebook 數十億用戶數據,又讓廣告商以無法察覺的方式投放廣告,在大選期間成為政治團體操縱人心的工具,更讓許多人對 Facebook 忍無可忍。劍橋分析濫用數據事件將執行長馬克祖克柏(Mark Zuckerberg)送上聽證會座席,接受盤問,即使他談了一大堆平台運作方式並道了歉,但背後引發的並不是技術性的問題,而是人性。



QUARTZ 整理報導,美國猶太人物理學家羅伯特歐本海默(Robert Oppenheimer)二戰期間參與美國原子彈計畫,當時他在新墨西哥州的一個試驗場所,觀察到第一次核爆時發出的蕈狀雲時,他重複印度史詩博伽梵歌的一句話,「現在我變成死神,成為世界的破壞者。」這位幫助建造世界最致命武器的科學家,看到物理學家將得永遠面對發明的後果。

而在這個時代,則是電腦科學家在面對他們的「核彈時刻」(A-Bomb moment),Facebook 對用戶數據的粗心大意,一切都是出自軟體工程師的良知。

Google 前安全和隱私工程師 Yonatan Zunger 曾說,電腦科學領域還沒有遇到任何後果,他將軟體工程師手中的能力比擬成在 AK-47 突擊步槍玩具店裡的孩子,現在軟體設計的安全和道德仍是選擇性,而不是必備的基礎準則。

其他領域已意識到道德監管的必要性,如化學炸藥和化學武器的發明,以及生物學對優生學的理論基礎,促成機構審查委員會,職業生涯中期認證和專業行為準則的創建。但是軟體工程不同,編碼人員既不是傳統意義上的專業與職業社群,許多人都是自學成才,因此自上而下的解決方案並不夠。

但也有些人正在努力導入人文素養,如演算法正義聯盟(The Algorithmic Justice League)成立目的在根除演算法偏見。前 Google 員工成立人文科技中心(Center for Humane Technology)試圖重新調整科技與人類的最大利益。

現在電腦科學家和編碼人員的分量愈來愈重,與物理、醫學和土木工程方面重要性齊平。而且風險無比的大,科技將很快介入人類生活的每個方面。機器識別語音和文字,演算法已經可以辨識面孔,並從數據推斷個人的性別、收入、信譽、心理健康、個性和感受。

雖然 Facebook 身為一個平台聲稱自己沒有立場,但目前看來他們的做法已中立到沒有是非黑白的程度,雖然每次出現爭議之後都提出一些應對措施,包括舉報不當應用程式的獎勵、政治廣告驗身分、刪除假帳號等,但都是公關手段,並非徹底覺悟。Facebook 前員工就曾揭露 Facebook 內部是如何仰賴廣告收入,斷定他們不會因為外界一再抨擊而改變廣告政策。

Zunger 認為,科技公司為了防止電腦系統崩潰,藉由排除各種假設確保可靠性,這種假設計畫應該要應用在對人類造成的後果上,他認為電腦工程師應該努力想像最糟糕的狀況,擔負起人類該有的責任。

(首圖來源:Flickr/Anthony Quintano CC BY 2.0)

延伸閱讀: