
日本政府針對「致命性自主武器系統」(LAWS)公布基本立場,明確表示無意研發不需人類介入的完全自主武器,並支持推動國際規範來進行相關限制。
日本指出,若武器系統仍由人類參與操作,其AI功能可望降低人為錯誤、節省人力,對國防具有積極意義。但同時強調,不會開發違反國際人道法或缺乏人類控制的武器系統。此文件去年已提交給聯合國,做為聯合國彙整各國對LAWS意見的一部分。
AI 在軍事應用中是雙面刃
日本防衛省於2025年發布的AI武器研發指南中,進一步明確了「人類干預」的必要性,對於涉及AI直接辨識攻擊目標並觸發武器發射的「高風險」系統,將從法律與政策角度嚴格審查,若無法遵守國際法或涉及無法人類干預的致命性自主武器系統,則不允許開發。
筆者認為,AI在軍事應用中減少人員傷亡是一把雙面刃。一方面,AI輔助武器系統能提升戰場判斷速度與精確度,降低士兵暴露於危險的機會,從技術和人道角度看,是重要進步,有助於減少無謂生命損失。另一方面,AI判斷並非完美,尤其在複雜多變的戰場環境中,誤判或錯殺平民風險依然存在,帶來嚴重倫理和法律問題。責任歸屬成為國際社會面臨的最大挑戰。AI系統具自主決策能力,但其決策過程常被視為「黑盒子」,難以追蹤和解釋。
當錯誤發生時,究竟是系統開發者、操作人員、軍事指揮官還是國家政府應負責,法律尚無明確定義。這種責任模糊不僅使受害者難以獲得公正賠償,也可能削弱國際法的權威與效力,亟需國際社會共同制定明確規範。
AI武器是否符合國際人道法備受關注,因其難以精確區分戰鬥員與平民,也缺乏倫理判斷。科技公司在軍事AI研發中角色敏感,需面對道德爭議。為防技術濫用,業界應設倫理準則,政府與國際組織也應強化監管,確保符合法律與人權標準。
各國對於完全自主武器的態度
在致命性自主武器系統(LAWS)的研發與部署方面,各國展現出不同的戰略走向與政策立場。俄羅斯已在烏克蘭戰爭中大量使用具備人工智慧辨識功能的無人機,例如「柳葉刀」自殺式無人機與伊朗製的「見證者」(Shahed)無人機,對城市與軍事設施發動頻繁攻擊。面對這種威脅,烏克蘭則積極發展具AI能力的攔截型無人機與攻擊系統,其無人機的研發與實戰運用已躍居全球領先地位,估計2024至2025年間,戰場約有八成傷亡與無人機有關。
美國與中國雖未明言將研發完全自主武器,但均未排除這一選項。中國尤其積極發展AI驅動的「殺傷鏈」技術並擴大無人機的量產規模。相比之下,法國與德國的態度較不明確,對於自主武器的限制與發展尚未有明確政策表態。
日本則持較為明確且保守的立場,明確拒絕開發不需人類介入的完全自主武器,強調任何武器系統的最終決策權必須由人類掌握。日本並倡導建立國際規範,確保所有武器開發遵循國際人道法與「以人為本」的核心原則。
整體來看,AI在軍事領域的應用雖帶來潛在的戰術優勢和人員保護,但同時也引發深刻的倫理、法律與責任問題。未來國際社會必須加強合作,制定明確規範,平衡技術進步與人道原則,避免AI技術成為無人問責的危險武器。這不僅是科技發展的挑戰,更是全球治理與倫理的考驗。
- Japan sets policy against fully autonomous lethal weapons
- Japan Rejects Development of Fully Autonomous Lethal Weapons
(首圖來源:AI 生成)