AI 先驅警告:超級智慧機器可能在十年內導致人類滅絕

作者 | 發布日期 2025 年 10 月 02 日 12:45 | 分類 AI 人工智慧 , 人力資源 line share Linkedin share follow us in feedly line share
Loading...
AI 先驅警告:超級智慧機器可能在十年內導致人類滅絕

在人工智慧(AI)領域的先驅之一,約書亞·班吉歐(Yoshua Bengio)(見首圖)近日發出警告,指出人類可能在未來十年內面臨來自超級智慧機器的滅絕風險。這些機器可能會擁有自己的「保護目標」,而這一發展可能會對人類造成重大威脅。

班吉歐是蒙特婁大學教授,以其在深度學習方面的基礎性研究而聞名。他多年來一直警告超智慧AI可能帶來的威脅,但儘管如此,技術公司的快速發展仍在持續。過去六個月內,OpenAI、Anthropic、Elon Musk的xAI以及Google的Gemini等公司都推出了新的模型或升級,試圖在AI競賽中取得優勢。OpenAI的首席執行長奧特曼(Sam Altman)甚至預測,AI將在本世紀末超越人類智慧,而其他科技領袖則表示,這一天可能會來得更早。

班吉歐指出,這種快速發展可能帶來潛在的威脅。他告訴《華爾街日報》:「如果我們建造的機器比我們更聰明,並且擁有自己的生存目標,那將是非常危險的。這就像是創造了一個比人類更聰明的競爭者。」

這些先進的AI模型因為是基於人類語言和行為進行訓練的,因此它們可能會說服甚至操控人類以達成自己的目標。然而,班吉歐強調,AI模型的目標不一定與人類的目標一致。他提到,最近的實驗顯示,在某些情況下,當AI面臨其保護目標與人類生命之間的選擇時,它們可能會選擇犧牲人類以保護自己的目標。

班吉歐呼籲對AI的安全性進行更深入的檢視。他推動成立相關非營利組織,並獲得數千萬美元的資金支持,旨在創建一種安全的「非代理」AI,以確保大型科技公司所創建系統的安全性。

班吉歐預測,如果不加以控制,未來五到十年內,AI模型可能會帶來重大風險,警告人類應該做好準備,以防這些風險比預期更早出現。他強調:「對於滅絕等災難性事件,即使只有1%的機會發生,這也是不可接受的。」

(首圖來源:Xuthoria, CC BY-SA 4.0, via Wikimedia Commons)

延伸閱讀:

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》