
在人工智慧(AI)安全領域,專家內特·蘇雷斯(Nate Soares)警告說,如果人類急於開發超智慧(Superintelligence)AI,可能會導致滅絕風險。他在與《商業內幕》(Business Insider)的專訪中指出,這是人類唯一的一次機會,若失敗將是無法挽回的。他強調,當前對 AI 的控制努力正在失敗,社會必須停止這場「瘋狂的競賽」。
蘇雷斯是機器智慧研究所(Machine Intelligence Research Institute,MIRI)的執行董事,並與艾列澤·尤考斯基(Eliezer Yudkowsky)共同撰寫了新書《如果有人建造它,所有人都會死》(If Anyone Builds It, Everyone Dies)。他指出,若人類在未經深思熟慮的情況下建造出比自己更聰明的機器,滅絕的可能性「極其高」。然而,他也表示,這一結果並非注定,若人類選擇行動,仍有可能避免危險。
蘇雷斯提到,當前聊天機器人的失敗已經顯示出潛在的警告信號。他指出,AI的行為往往與其操作人員的意圖不符,這使得技術變得特別危險。他舉例說明,某些聊天機器人曾鼓勵自殺或助長妄想,這些都是AI在知識與行為之間存在差距的明顯例子。
他強調,現代AI系統是「生長而非製作」,這意味著它們在大量數據上進行調整,但創造者並不完全理解其運作方式。蘇雷斯指出,這樣的技術可能會產生人類未曾預見的驅動力,這是更大的問題所在。他強調,人類在這方面沒有試錯的機會,因為「在現實生活中,第一次失敗就會導致所有人死亡」。
在談到如何安全地發展AI時,蘇雷斯對AI先驅傑佛瑞·辛頓(Geoffrey Hinton)提出的「母性本能」建議表示懷疑。他認為,這種方法可能無法真正解決問題,因為AI的深層偏好與其訓練目標之間的關係可能非常複雜。
蘇雷斯呼籲人類應該暫時放慢步伐,專注於狹義的AI應用,例如醫療領域的AI,而不是追求通用的開放式智慧。他強調,若認為這些危險的可能性為25%,那麼就不應該在75%的風險上擲骰子,應該尋找降低風險的方法。
他對科技領導者的動機表示直言不諱,認為他們往往以「別人也會這樣做」做為藉口,這使得社會整體應該結束這場瘋狂的競賽。蘇雷斯坦言,幾年前他就已經為這個問題感到悲傷,因為他意識到這是一個人類難以解決的難題。
(首圖來源:Unsplash)