在人工智慧(AI)迅速發展的當下,許多專家呼籲人類必須主導未來的 AI 發展,而非被恐懼所驅動。隨著 AI 技術的進步,出現了數據洩漏、自主行動失控等事件,這些都暴露了當前安全控制的弱點,並加劇了人們對 AI 可能帶來生存風險的擔憂。然而,這種結果並非必然,因為 AI 是由人類創造的,運行在我們設計的硬體上,最終的責任仍然在於我們自己。
一些思想家認為,先進的AI可能很快就會超越人類的能力,這引發了對控制的質疑。若AI系統的目標與人類意圖不一致,可能會導致危險的後果。目標應該是設計出高智慧的機器,同時確保這些機器不會以讓我們感到不快的方式行事。
對於超智慧系統的預測各不相同,有些人認為突破將在十年內實現,而另一些人則認為這是遙遠的未來。無論時間表如何,恐懼感卻是一致的。隨著系統具備快速自我改進的能力,人類可能會失去對其行為的控制。政策專家海倫·托納(Helen Toner)指出,市場上對於建造高度自主AI系統的強烈經濟動機,可能會加速這些風險情境的出現。
然而,反對者質疑AI是否真的在朝著通用人工智慧的方向發展。許多研究者指出,當前的系統在模式辨識方面表現出色,但並不具備人類的綜合理解能力。認知科學家蓋瑞·馬庫斯(Gary Marcus)認為,對於即將到來的超智慧的主張仍然是推測性的。
在這場辯論中,對齊(alignment)問題成為一個建設性的焦點,這是研究如何使先進系統根據人類目標行事的領域。專家們在模型可解釋性、安全評估和監管等方面進行了努力,儘管對於這些進展的實際成效存在分歧。
為了保持人類的主導權,我們需要創新科學和政策。科學上,我們需要更深入地了解模型行為,並加大對對齊研究的投資。政策上,我們需要與創新步伐相匹配的治理,這包括在部署前進行強制安全測試、明確失敗時的責任框架,以及在關鍵基礎設施中設置關閉機制的要求。
AI並非自然而然產生的,它是人類設計選擇的結果。保持控制並非自動發生,商業動機推動公司在安全機制尚未跟上的情況下,建造越來越自主的系統。人類的主導權可能因為我們選擇速度而非安全、利潤而非謹慎而受到威脅。
(首圖來源:pixabay)






