微軟 CEO 納德拉用 6 條規則來避免人工智慧危害人類生命

作者 | 發布日期 2016 年 07 月 01 日 14:21 | 分類 AI 人工智慧 , Microsoft , 機器人 follow us in feedly

近期,微軟 CEO 納德拉在 Slate 上發表了自己對於人工智慧安全設計的思考。他認為人工智慧和人類在未來可以和諧相處:



我們希望創造可以增強人類能力和體驗的人工智慧。最終,人類和機器不應該是敵對的關係。人類的創造性、同情心和洞察力可以和人工智慧的計算能力有機地結合在一起,推動社會進步。

納德拉是一個樂觀派,但他的樂觀是建立在理性思考上的。

達志影像不得重複使用!!! Microsoft CEO Satya Nadella gestures as he addresses students and young entrepreneurs during a conference in New Delhi, India May 30, 2016. REUTERS/Anindito Mukherjee - RTX2ESQL

▲ 微軟 CEO 納德拉(Source:達志影像)

他認為,要實現這個目標,對有害的副作用的防範至關重要。對此,他提出了 6 條規則,以指導人工智慧的安全設計。

人工智慧必須成為人道的輔助

納德拉認為,隨著人工智慧越來越自主化,人們的生活應該更加自由。機器應該代替人類去做一些如採礦一類的危險工作,讓我們的生活更安全。

人工智慧技術必須透明、公開

當機器可以近乎無限制地學習用戶的行為,人類更加應該瞭解人工智慧技術的工作方式。反之,資訊不對等會帶來巨大的危險。

人工智慧在促進生產效率的同時,不能有害於人類的尊嚴

納德拉在此強調,科技產業不能刻意引導未來價值觀與道德的發展趨勢。當矽谷的大公司都在宣揚「科技改變世界」的信條,人工智慧的設計應該傾聽不同人群的聲音。

人工智慧必須保障用戶隱私

人工智慧的設定應該尊重個人和群體的隱私保護意願。比如,Facebook 和 Google 都以挖掘個人資料營利,而它們複雜的隱私設定,讓用戶的大部分隱私都暴露給人工智慧。這種模式是納德拉所反對的。

人工智慧必須有可更改的演算法

這樣可以透過修改人工智慧的設定來規避風險,將意料之外的危害降到最低。

人工智慧應反對歧視

納德拉反對人工智慧對於邊緣化人群的歧視,這多少也暗合了矽谷自由派的價值觀。

在納德拉之前,有不少人表達過類似的憂慮。

1942 年,科幻巨擘艾西莫夫出版了短篇小說《Runaround》,並在其中提出了著名的機器人三定律。這套規則被廣泛引用,用來探討在科技進步中如何防止機器人對人類的傷害。

  • 機器人不能傷害人或因不作為使人類受到傷害。
  • 除非違背第一定律,機器人必須服從人類的命令。
  • 除非違背第一季第二定律,機器人必須保護自己。

艾西莫夫的人工智慧規則看似嚴謹,但也有很多人認為其僅有文學上的,而非現實上的價值。比如,這套規則並不能防止人工智慧修改自身的設定以擺脫人類的控制。

這種擔憂看似是杞人憂天,而事實上,近年來如比爾‧蓋茲和霍金等都發表過對人工智慧潛在危險的擔心。

學術界對此問題的探討起步更早,法國哲學家讓-弗朗索瓦‧利奧塔早在 1988 年出版的著作《非人道》中就提出過,科技的演進有其內在的邏輯,獨立於人類的意願之外。科技永遠只遵循效率優先的原則,而非以人為本。他預言,總有一天人類會失去對科技發展的控制,並被科技奴役。

The Verge 評論,跟艾西莫夫的三定律相比,微軟 CEO 的 6 條原則顯然缺少了趣味性,但是其對整個產業的發展來說卻是更有指導意義的。

納德拉的擔憂更側重人工智慧潛在的社會影響,而不是反對機器人走進千家萬戶。人工智慧若想增進人類福祉,掃除潛在危險,或許需要有更多如納德拉這樣的領導者出面,為道德演進指明方向。

(本文由 愛范兒 授權轉載;首圖來源:shutterstock)

延伸閱讀:

發表迴響