OpenAI 發表強人工智慧研究綱領:讓 AI 造福全人類

作者 | 發布日期 2018 年 04 月 12 日 7:45 | 分類 AI 人工智慧 , 軟體、系統 follow us in feedly

近期 Facebook 洩露用戶資料、針對性影響用戶、Uber 自駕車事故,以及全球學者聯名抵制南韓開發自主武器的事情再次敲響了人工智慧安全的警鐘。OpenAI 也於 9 日發表了一份研究綱領,表明自己的研究使命和行動法則,希望擔負起「讓人工智慧造福全人類」這偉大事業自身那部分的責任。文章涵蓋了過去兩年的研究逐漸成形的研究策略,以及來自 OpenAI 內外的各種回饋。



OpenAI 的使命是確保強人工智慧(artificial general intelligenceAGI,也稱通用人工智慧)──能在多數有經濟價值的工作展現超越人類表現的高度自動化系統──會為全人類帶來福祉。OpenAI 不僅希望透過自己的努力直接建造出安全、有益的強人工智慧,且願意幫助其他研究組織共同製造這種強人工智慧。

為了達到目標,OpenAI 設定了這些綱領:

廣泛參與,廣泛貢獻

  • OpenAI 承諾,在強人工智慧的開發過程中,OpenAI 將動用所有影響力,確保它造福全人類,以及避免把人工智慧/強人工智慧用於會傷害人類的情形或工作,以及避免被集權控制。
  • OpenAI 承擔的責任主要對全人類負責。如果有必要,他們準備好對外分享所有重要研究資源;同時也會積極行動,盡量減少股東和 OpenAI 工作人員之間的利益衝突,保證讓更多人受益。

強人工智慧的長遠安全問題

  • OpenAI 保證強人工智慧安全性的研究,並在整個 AI 研究領域推動大規模展開。
  • OpenAI 擔心末端強人工智慧開發成為一場競爭性比賽,比賽中也就不會分配時間給必要的安全防護措施。所以,如果 OpenAI 研發自己的項目之前出現一個價值均衡、注重安全的強人工智慧,OpenAI 承諾將停止競爭,並輔助這個強人工智慧。OpenAI 未來會針對每個專案列出具體執行細節,不過典型的觸發規則可能會類似「未來兩年內能成功的機率超過一半一半」。

技術領頭人

  • 為了有效展現強人工智慧的影響力給整個社會,OpenAI 也需要站在 AI 能力開發的前線──在政策和安全性方面僅發出聲音是不夠的。
  • OpenAI 相信人工智慧在強人工智慧之前就會產生廣泛的社會影響,OpenAI 也會努力在與自己的使命和經驗相吻合的領域保持領導地位。

合作方向

  • OpenAI 會和其他研究機構及策略制定機構積極合作,希望建立一個全球性合作社群,共同應對強人工智慧的全球性挑戰。
  • OpenAI 承諾將提供全社會公開資訊,幫助社會走向與強人工智慧共處的時代。目前要做的內容包括公開發表大多數人工智慧研究成果,同時 OpenAI 也希望,隨著未來對安全和防護的擔憂越來越多,老式成果發表將會減少,轉變為分享安全、策略和標準化的研究。

人類何時能研發出真正的強人工智慧還未可知,但 OpenAI 也希望自己的綱領可引導強人工智慧的研發過程中體現出全人類的最大利益。

這份綱領發出後,已有一些學者積極回饋,非常歡迎 OpenAI 這種舉動,同時也認可 OpenAI 積極堅定的態度,欽佩 OpenAI 如此公開承諾。

我們也非常期盼強人工智慧的到來,且希望真的到來那一天,真是全人類的福祉。相信到時肯定有一份 OpenAI 的功勞。

(本文由 雷鋒網 授權轉載;首圖來源:shutterstock)

延伸閱讀:

關鍵字: , , ,