隨著人工智慧(AI)技術飛速發展,AI 是否該介入戰場上的生死決策,已成為科技界與國防界爭論不休的議題,針對各界對於「自主武器系統」的道德焦慮,Anduril Industries 創辦人拉奇近日在接受媒體訪問時提出了犀利觀點,
拉奇(Palmer Luckey)近日出席《福斯週日新聞》(Fox News Sunday)節目時,針對 Anduril 及其他國防新創公司正在開發的自主 AI 武器與工具進行辯護,面對外界擔憂 AI 技術尚未成熟,不應應用於作戰環境的質疑,拉奇反駁道,正因為這是涉及生死的決策領域,才更應該採用當前可用的最佳技術。
「無論是 AI、量子計算還是其他任何技術,當談論到奪取生命時,你必須盡可能將附帶損害(Collateral Damage)降至最低,」拉奇表示,「你必須對自己每一個行動都擁有最高的確定性。」
拉奇進一步強調效率與精確的重要性,並挑戰了傳統的反戰科技觀點,他表示使用傳統武器打仗沒有比較道德,即使某些人可以藉此宣稱「我們絕不讓機器決定誰生誰死」,但若能透過先進技術更精準地識別目標、減少誤傷,才是真正的負責任。
隨著川普政府時期對 AI 的大力投資,以及近期無人機在現代衝突中的關鍵角色,國防科技產業正迎來爆發期,針對媒體提問是否應該避免打開 AI 戰爭的「潘朵拉盒子」,拉奇的態度相當務實。
「我經常被記者質問:『喔,我們不應該打開潘朵拉的盒子』,」拉奇說道。「我的回應是,早在很久以前,當我們製造出能自動搜尋地對空導彈發射器的反輻射導彈時,這個盒子就已經被打開了。」
對拉奇與 Anduril 而言,未來的戰爭型態已不可逆轉,關鍵不在於是否使用 AI,而在於誰能掌握更強大、更精準的技術優勢。
(首圖來源:Steve Jurvetson, CC BY 2.0, via Wikimedia Commons)






