越來越強大的 AI 科技隱憂不容忽視,如果遭濫用,有機會發生毀滅性災難。OpenAI 特地成立團隊評估防範問題,確保 AI 科技不會造成災難。
OpenAI 團隊名為「Preparedness」(備戰),由麻省理工學院機器學習中心(Center for Deployable Machine Learning)主任 Aleksander Madry 領導。團隊任務包括追蹤預測及防範 AI 系統可能的危險,特別是系統對網路安全的潛在威脅。OpenAI 提及不同風險,有化學、生物、輻射和核威脅等。
OpenAI 舉辦挑戰賽邀請開發者社群提交風險研究提案,開發者不只可獲獎金,還有機會加入 Preparedness 團隊。這活動要求參與者思考如果惡意使用者獲得 OpenAI 某些先進模型的不受限制權限,可能發生的最壞情況。
OpenAI 強調 AI 模型能力不斷提升,對全人類的潛在益處增加同時,也形成嚴重風險,故積極發展策略和基礎設施,以確保安全控制和部署高階 AI 系統。
(本文由 Unwire HK 授權轉載;首圖來源:shutterstock)






