Google 放棄道德紅線後,未來戰爭不能沒有 AI

作者 | 發布日期 2025 年 02 月 10 日 11:49 | 分類 AI 人工智慧 , 國際觀察 line share Linkedin share follow us in feedly line share
Google 放棄道德紅線後,未來戰爭不能沒有 AI

最近 Google 更新 AI 道德準則,放棄不將 AI 用於武器的承諾,稱民主國家應該有共同價值觀,AI 應用來保護國家安全。法國也宣告將加強 AI 軍事用途,稱軍方科技不能落後民間。隨著科技大廠與國家紛紛放棄道德紅線,國防 AI 軍備競賽將正式展開。

Google 創立之初的座右銘是「不作惡」,後來這句座右銘在 2009 年被降級為口頭禪,並且在 2015 年母公司 Alphabet 成立時並未被納入其道德準則,但它仍然是員工心中的一把尺。

Google 2018 年首次發布 AI 原則,比該技術普及還早幾年,在原始版本的原則中,Google 列出它不會實施的計劃,其中一個類別是用來傷害人類的武器或其他技術,另一個是用於超出國際規範的監視技術。

2018 年,Google 放棄對美國國防部 100 億美元雲端運算合約的競標,當時表示「我們無法保證它是否符合我們的 AI 原則」。當年,超過 4,000 名員工簽署一份請願書,要求制定一項明確政策,規定 Google 及其承包商永遠不會開發戰爭技術,約有十幾名員工辭職以示抗議。

ChatGPT 加速 AI 競爭壓力

OpenAI 2022 年推出聊天機器人 ChatGPT 以來,AI 競賽彷彿一夕之間浮出檯面,雖然 AI 應用蓬勃發展,但有關 AI 透明度和道德方面的立法和法規一直未能跟上,Google 最新動作刪除當初設下的自我約束,被視為全球即將對 AI 道德鬆綁的一大警訊。

Google 的理由是,相信民主國家應該在自由、平等和尊重人權等核心價值的指導下,引領 AI 發展,也相信,擁有這些價值觀的公司、政府和組織,應該共同努力,創造出保護人民、促進全球發展和支持國家安全的人工智慧。保護「國家安全」成為 AI 進入軍事應用的防護罩,讓許多專家擔憂,在日益複雜的地緣政治格局中,AI 勢必成為未來戰爭的武器。

法國專責機構發展軍事 AI 技術

法國早在 2024 年就發展軍事 AI,誓言成為軍事 AI 領域的全球領導者。法國軍事人工智慧機構 AMIAD 於去年 5 月成立,年度預算為 3 億歐元,擁有 100 多名員工,以及一台專用超級電腦,旗下工程師負責解決各種問題,從反無人機戰爭到開發大型語言模型,協助軍事規劃。

AMIAD 也與法國 AI 新創公司 Mistral 建立合作夥伴關係,AMIAD 使用 Mistral 的技術,而 AMIAD 也讓 Mistral 使用國防部的技術,該機構負責人稱這是一個雙贏局面。

科技公司與國防部的關係越來越密切。AMIAD 負責人在加入 AMIAD 之前,曾在 Google AI 研究實驗室 DeepMind 工作,他對外媒採訪時表示,「我們不再區分科技和國防,不只是因為烏克蘭戰爭,也因為國家間競爭加劇的大背景。」軍方一直是頂尖科技的先驅與採用者,在各國皆如此,但過去軍方在 AI 創新方面並沒有處於領先地位,他認為軍方必須跟上民用技術的步伐,最終要超越它。

(首圖來源:pixabay)

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》