![Google 放棄道德紅線後,未來戰爭不能沒有 AI](https://img.technews.tw/wp-content/uploads/2024/11/29131303/explosion-3080734_1280-800x529.jpg)
最近 Google 更新 AI 道德準則,放棄不將 AI 用於武器的承諾,稱民主國家應該有共同價值觀,AI 應用來保護國家安全。法國也宣告將加強 AI 軍事用途,稱軍方科技不能落後民間。隨著科技大廠與國家紛紛放棄道德紅線,國防 AI 軍備競賽將正式展開。
Google 創立之初的座右銘是「不作惡」,後來這句座右銘在 2009 年被降級為口頭禪,並且在 2015 年母公司 Alphabet 成立時並未被納入其道德準則,但它仍然是員工心中的一把尺。
Google 於 2018 年首次發布 AI 原則,比該技術普及還早幾年,在原始版本的原則中,Google 列出它不會實施的計劃,其中一個類別是用來傷害人類的武器或其他技術,另一個是用於超出國際規範的監視技術。
2018 年,Google 放棄對美國國防部 100 億美元雲端運算合約的競標,當時表示「我們無法保證它是否符合我們的 AI 原則」。當年,超過 4,000 名員工簽署一份請願書,要求制定一項明確政策,規定 Google 及其承包商永遠不會開發戰爭技術,約有十幾名員工辭職以示抗議。
ChatGPT 加速 AI 競爭壓力
自 OpenAI 於 2022 年推出聊天機器人 ChatGPT 以來,AI 競賽彷彿一夕之間浮出檯面,雖然 AI 應用蓬勃發展,但有關 AI 透明度和道德方面的立法和法規一直未能跟上,Google 最新動作刪除當初設下的自我約束,被視為全球即將對 AI 道德鬆綁的一大警訊。
Google 的理由是,相信民主國家應該在自由、平等和尊重人權等核心價值的指導下,引領 AI 發展,也相信,擁有這些價值觀的公司、政府和組織,應該共同努力,創造出保護人民、促進全球發展和支持國家安全的人工智慧。保護「國家安全」成為 AI 進入軍事應用的防護罩,讓許多專家擔憂,在日益複雜的地緣政治格局中,AI 勢必成為未來戰爭的武器。
法國專責機構發展軍事 AI 技術
法國早在 2024 年就發展軍事 AI,誓言成為軍事 AI 領域的全球領導者。法國軍事人工智慧機構 AMIAD 於去年 5 月成立,年度預算為 3 億歐元,擁有 100 多名員工,以及一台專用超級電腦,旗下工程師負責解決各種問題,從反無人機戰爭到開發大型語言模型,協助軍事規劃。
AMIAD 也與法國 AI 新創公司 Mistral 建立合作夥伴關係,AMIAD 使用 Mistral 的技術,而 AMIAD 也讓 Mistral 使用國防部的技術,該機構負責人稱這是一個雙贏局面。
科技公司與國防部的關係越來越密切。AMIAD 負責人在加入 AMIAD 之前,曾在 Google AI 研究實驗室 DeepMind 工作,他對外媒採訪時表示,「我們不再區分科技和國防,不只是因為烏克蘭戰爭,也因為國家間競爭加劇的大背景。」軍方一直是頂尖科技的先驅與採用者,在各國皆如此,但過去軍方在 AI 創新方面並沒有處於領先地位,他認為軍方必須跟上民用技術的步伐,最終要超越它。
- Google erases promise not to use AI technology for weapons or surveillance
- Google owner drops promise not to use AI for weapons
- France wants its own military AI algorithms
(首圖來源:pixabay)