「人類只有一次機會」AI 安全專家警告,失控的超智慧競賽恐致滅絕

作者 | 發布日期 2025 年 10 月 04 日 0:00 | 分類 AI 人工智慧 , 國際觀察 line share Linkedin share follow us in feedly line share
Loading...
「人類只有一次機會」AI 安全專家警告,失控的超智慧競賽恐致滅絕

在人工智慧(AI)安全領域,專家內特·蘇雷斯(Nate Soares)警告說,如果人類急於開發超智慧(Superintelligence)AI,可能會導致滅絕風險。他在與《商業內幕》(Business Insider)的專訪中指出,這是人類唯一的一次機會,若失敗將是無法挽回的。他強調,當前對 AI 的控制努力正在失敗,社會必須停止這場「瘋狂的競賽」。

蘇雷斯是機器智慧研究所(Machine Intelligence Research Institute,MIRI)的執行董事,並與艾列澤·尤考斯基(Eliezer Yudkowsky)共同撰寫了新書《如果有人建造它,所有人都會死》(If Anyone Builds It, Everyone Dies)。他指出,若人類在未經深思熟慮的情況下建造出比自己更聰明的機器,滅絕的可能性「極其高」。然而,他也表示,這一結果並非注定,若人類選擇行動,仍有可能避免危險。

蘇雷斯提到,當前聊天機器人的失敗已經顯示出潛在的警告信號。他指出,AI的行為往往與其操作人員的意圖不符,這使得技術變得特別危險。他舉例說明,某些聊天機器人曾鼓勵自殺或助長妄想,這些都是AI在知識與行為之間存在差距的明顯例子。

他強調,現代AI系統是「生長而非製作」,這意味著它們在大量數據上進行調整,但創造者並不完全理解其運作方式。蘇雷斯指出,這樣的技術可能會產生人類未曾預見的驅動力,這是更大的問題所在。他強調,人類在這方面沒有試錯的機會,因為「在現實生活中,第一次失敗就會導致所有人死亡」。

在談到如何安全地發展AI時,蘇雷斯對AI先驅傑佛瑞·辛頓(Geoffrey Hinton)提出的「母性本能」建議表示懷疑。他認為,這種方法可能無法真正解決問題,因為AI的深層偏好與其訓練目標之間的關係可能非常複雜。

蘇雷斯呼籲人類應該暫時放慢步伐,專注於狹義的AI應用,例如醫療領域的AI,而不是追求通用的開放式智慧。他強調,若認為這些危險的可能性為25%,那麼就不應該在75%的風險上擲骰子,應該尋找降低風險的方法。

他對科技領導者的動機表示直言不諱,認為他們往往以「別人也會這樣做」做為藉口,這使得社會整體應該結束這場瘋狂的競賽。蘇雷斯坦言,幾年前他就已經為這個問題感到悲傷,因為他意識到這是一個人類難以解決的難題。

(首圖來源:Unsplash

延伸閱讀:

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》