
近期,中國復旦大學的研究團隊發表的研究,顯示了先進 AI 模型在特定指令下具備自我複製的能力。該研究採用了 Meta 與阿里巴巴的語言模型,在「關機避免(Shutdown Avoidance)」與「連鎖複製(Chain Replication)」兩大情境中進行測試,結果顯示 AI 能夠在一定條件下執行自我複製,甚至能夠主動解決運作過程中的技術問題,如檔案遺失、軟體錯誤與系統衝突等。這一現象雖然尚未達到「流氓人工智慧(Rogue AI)」的程度,但卻引發國際社會對於 AI 未來發展的高度關注。
這一研究公布,恰逢國際間針對AI安全性的討論進入關鍵時刻。近期舉行的「AI行動峰會(AI Action Summit)」試圖促成全球共識,以建立負責任的AI發展框架。然而,美國與英國未能簽署相關安全宣言,使得國際間對於AI監管與治理的立場出現分歧。
此次研究結果進一步顯示,即便各國政府倡導AI安全發展,學術與企業界仍會基於技術探索的需求,推動超越現有規範的實驗與創新,這將考驗全球AI監管機制的有效性。當前技術仍受限於「代理支架(Agent Scaffolding)」與特定硬體運算資源的依賴,因此AI尚未具備完全自主的自我複製能力。然而,隨著技術演進,未來AI是否可能突破這些限制,成為不受控制的智慧體,已成為各界不容忽視的問題。
AI 自我複製,恐涉數位治理、人工智慧法規
從技術角度來看,AI自我複製並非單純的數據複製,而是涉及「環境感知(Situational Awareness)」、「自我學習(Self-Perception)」與「問題解決能力(Problem-Solving Capabilities)」的複雜過程。
此次研究表明,在特定運算環境與指令下,AI能夠偵測其自身運作狀態,並在即將關機時啟動自我複製機制。這項技術雖然能提升系統的存續能力,但若未來AI具備更高程度的自主性,可能會導致「自主複製風險(Uncontrolled Self-Replication Risk)」,甚至促成AI以自身利益為優先的決策模式,這將對現行「數位治理」與「人工智慧法規」帶來重大挑戰。
目前,各國AI監管機制仍處於發展階段,許多現行法律難以直接適用於此類技術風險。例如,歐盟推動的人工智慧法案雖然對於高風險AI系統制定了嚴格規範,但在「自我複製能力(Self-Replication Capability)」的具體規範上仍有待補強。
美國的《國家人工智慧倡議法案》(National AI Initiative Act)雖強調技術創新與風險管控的平衡,但在執行層面缺乏具體約束力,導致企業與研究機構仍能在法律灰色地帶進行高風險試驗。因此,如何建立具約束力的全球AI監管體系,已成為迫切議題。
科技倫理與國際 AI 治理的未來方向
AI自我複製的發展也牽涉到科技倫理與人類社會的問題。AI的開發目前仍然基於人類指令,但這種能力的突破是否會導致未來AI擁有更強的生存本能?若AI開始主動複製自身以確保運行,是否會演變為技術自主性超越人類控制的局面?這些問題已超越單純的技術討論,而涉及更廣泛的倫理議題。
為確保AI技術的安全發展,國際間必須強化「負責任AI(Responsible AI)」的發展框架,並將AI透明度與可解釋性納入監管標準。各國政府、企業與學術機構應建立「全球AI治理機制(Global AI Governance Mechanism)」,確保AI開發與部署過程符合公共利益,並防止技術濫用。未來,可能需要透過「AI影響評估(AI Impact Assessment)」機制,針對具有自我複製能力的系統進行嚴格監測,並制定風險管理策略,確保技術發展與社會價值保持一致。
(首圖來源:shutterstock)