OpenAI 默默修訂使用政策,恐為軍事 AI 應用敞開大門

作者 | 發布日期 2024 年 01 月 15 日 12:29 | 分類 AI 人工智慧 , 軍事科技 line share follow us in feedly line share
OpenAI 默默修訂使用政策,恐為軍事 AI 應用敞開大門


OpenAI 使用政策規定用戶如何運用 ChatGPT、DALL·E 等 AI 工具,然而上週默默從使用政策刪除用於軍事目的措辭,被視為可能讓軍事 AI 應用得以接上 OpenAI 技術。

OpenAI 使用政策原先禁止「具有人身傷害高風險的活動」,具體包括「武器開發」、「軍事和戰爭」,禁止軍事應用的明確措辭似乎排除任何官方可能性。然而新政策保留「不得使用我們的服務傷害自己或他人」禁令,並以「開發或使用武器」為例,但對用於「軍事和戰爭」禁令已被刪除。

美國調查新聞網站 The Intercept 最先注意到 OpenAI 這項變化,新政策頁面似乎是在 1 月 10 日更新。

這次未經正式宣布的使用政策修訂,OpenAI 解釋是使政策內容更清晰、易讀取,包括許多語言和格式修改。「我們目標是創造一套易於記憶和應用的通用原則,特別是我們工具現在已被全球用戶使用,他們現在也能建立 GPT」,OpenAI 發言人 Niko Felix 提供給 The Intercept 聲明表示。

「我們政策不允許工具用來傷害他人、開發武器、監視通訊、破壞財產」,Niko Felix 在聲明寫道,但他未說明「傷害」禁令是否涵蓋所有軍事用途。

「OpenAI 非常清楚在軍事應用使用其技術和服務可能產生風險和危害」,網路安全公司 Trail of Bits 工程總監、是機器學習和自主系統安全專家 Heidy Khlaaf 告訴 The Intercept,並引用 2022 年她與 OpenAI 研究人員合著論文,標出軍事用途可能造成風險。「前後政策之間存在明顯區別,前者明確規定禁止武器開發、軍事和戰爭,後者則強調彈性和遵守法律」,她認為新政策似乎更強調合法性而非安全性。

「開發武器以及進行軍事和戰爭有關活動在不同程度上是合法的,對 AI 安全有潛在巨大影響。有鑑於大型語言模型存在眾所周知的偏見和幻覺,整體缺乏準確性,在軍事上使用只會導致不精準、有偏見的行動,可能會加劇衝突、使平民傷亡」,Heidy Khlaaf 表示。

雖然 OpenAI 目前提供任何服務無法直接殺死人,就連 ChatGPT 也無法操控無人機或發射導彈,但 ChatGPT 背後的大型語言模型可以強化許多軍事相關處理能力,比方說編寫程式碼或處理複雜指令,且有美國部分軍事人員逐步導入,做為輔助用途,最終目的可能具有殺傷力。

隨著產品不斷演進,科技業界經常發生未經正式宣布的政策措辭變更,OpenAI 也不例外,然而 ChatGPT 為去年掀起全球 AI 熱潮,讓 OpenAI 每一步動向成為外界關注焦點,其中 AI 安全還未有明確規範下,OpenAI 修訂使用政策措辭值得觀察軍事 AI 應用方面後續效應。

(首圖來源:Unsplash