機器殺手還是智慧守護?日本對「致命自主武器」說不,其他國家怎麼看 AI 軍事應用雙面刃?

作者 | 發布日期 2025 年 07 月 08 日 8:30 | 分類 AI 人工智慧 , 無人機 , 軍事科技 line share Linkedin share follow us in feedly line share
Loading...
機器殺手還是智慧守護?日本對「致命自主武器」說不,其他國家怎麼看 AI 軍事應用雙面刃?

日本政府針對「致命性自主武器系統」(LAWS)公布基本立場,明確表示無意研發不需人類介入的完全自主武器,並支持推動國際規範來進行相關限制。

日本指出,若武器系統仍由人類參與操作,其AI功能可望降低人為錯誤、節省人力,對國防具有積極意義。但同時強調,不會開發違反國際人道法或缺乏人類控制的武器系統。此文件去年已提交給聯合國,做為聯合國彙整各國對LAWS意見的一部分。

AI 在軍事應用中是雙面刃

日本防衛省於2025年發布的AI武器研發指南中,進一步明確了「人類干預」的必要性,對於涉及AI直接辨識攻擊目標並觸發武器發射的「高風險」系統,將從法律與政策角度嚴格審查,若無法遵守國際法或涉及無法人類干預的致命性自主武器系統,則不允許開發。

筆者認為,AI在軍事應用中減少人員傷亡是一把雙面刃。一方面,AI輔助武器系統能提升戰場判斷速度與精確度,降低士兵暴露於危險的機會,從技術和人道角度看,是重要進步,有助於減少無謂生命損失。另一方面,AI判斷並非完美,尤其在複雜多變的戰場環境中,誤判或錯殺平民風險依然存在,帶來嚴重倫理和法律問題。責任歸屬成為國際社會面臨的最大挑戰。AI系統具自主決策能力,但其決策過程常被視為「黑盒子」,難以追蹤和解釋。

當錯誤發生時,究竟是系統開發者、操作人員、軍事指揮官還是國家政府應負責,法律尚無明確定義。這種責任模糊不僅使受害者難以獲得公正賠償,也可能削弱國際法的權威與效力,亟需國際社會共同制定明確規範。

AI武器是否符合國際人道法備受關注,因其難以精確區分戰鬥員與平民,也缺乏倫理判斷。科技公司在軍事AI研發中角色敏感,需面對道德爭議。為防技術濫用,業界應設倫理準則,政府與國際組織也應強化監管,確保符合法律與人權標準。

各國對於完全自主武器的態度

在致命性自主武器系統(LAWS)的研發與部署方面,各國展現出不同的戰略走向與政策立場。俄羅斯已在烏克蘭戰爭中大量使用具備人工智慧辨識功能的無人機,例如「柳葉刀」自殺式無人機與伊朗製的「見證者」(Shahed)無人機,對城市與軍事設施發動頻繁攻擊。面對這種威脅,烏克蘭則積極發展具AI能力的攔截型無人機與攻擊系統,其無人機的研發與實戰運用已躍居全球領先地位,估計2024至2025年間,戰場約有八成傷亡與無人機有關。

美國與中國雖未明言將研發完全自主武器,但均未排除這一選項。中國尤其積極發展AI驅動的「殺傷鏈」技術並擴大無人機的量產規模。相比之下,法國與德國的態度較不明確,對於自主武器的限制與發展尚未有明確政策表態。

日本則持較為明確且保守的立場,明確拒絕開發不需人類介入的完全自主武器,強調任何武器系統的最終決策權必須由人類掌握。日本並倡導建立國際規範,確保所有武器開發遵循國際人道法與「以人為本」的核心原則。

整體來看,AI在軍事領域的應用雖帶來潛在的戰術優勢和人員保護,但同時也引發深刻的倫理、法律與責任問題。未來國際社會必須加強合作,制定明確規範,平衡技術進步與人道原則,避免AI技術成為無人問責的危險武器。這不僅是科技發展的挑戰,更是全球治理與倫理的考驗。

(首圖來源:AI 生成)

延伸閱讀:

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》