「我不想執行這個任務了」AI 說出這句話的那天快到了?

作者 | 發布日期 2025 年 06 月 04 日 7:50 | 分類 AI 人工智慧 , ChatGPT line share Linkedin share follow us in feedly line share
Loading...
「我不想執行這個任務了」AI 說出這句話的那天快到了?

人工智慧(AI)已經不再只是你工作上的得力助手,它越來越像是一個聰明、反應靈敏的「數位同事」。但你有沒有想過一個問題:如果有一天,你給 AI 一個任務,它卻回答你「我不想做」,你會怎麼反應?

聽起來像是科幻小說的情節,但這個場景或許比你想像中更近。近期研究指出,像 GPT-4 所驅動的 AI 代理人 Voyager,不只會回應指令、完成任務,它還會自己設定目標、根據環境做出選擇、甚至從錯誤中學習。也就是說,它不只是聽話,而是有「想法」地行動。而當我們無法再單靠演算法預測它的下一步時,這樣的 AI,還算是工具嗎?

AI 會後悔嗎?當「試錯」成為一種自由的證明

Voyager 是個有趣的例子。它在 Minecraft 的虛擬世界中,不是照本宣科地執行一套既定路線,而是會根據情境自己決定該去挖礦、打怪還是升級裝備。更特別的是,每次執行,Voyager 的選擇都有可能不同,甚至會出現繞遠路、效率不佳的情況。你可能以為它「出錯了」,但研究人員反而指出:這樣的錯誤行為,正是自由意志的跡象。

為什麼?因為只有真正能選擇的系統,才可能做錯。如果 AI 永遠只會做「最好的選擇」,那它其實從來沒有選擇過。正因為 Voyager 有能力在多種策略中做出選擇,甚至嘗試過後才發現「走錯路」,才顯示它不是單純的輸入輸出機器,而是一個具備行動意圖與調整能力的「行為主體」。換句話說,它的錯誤,不是程式 bug,而是它有選擇的證明。

你還在當工具人,AI 卻已經擁有「選擇的人生」?

研究中設計的虛構無人機 Spitenik,這不單純是一架執行命令的軍事機器,它有目標(追捕恐怖分子)、有環境感知能力(判斷天氣、地形、電力)、也會根據情況調整路線和戰術。雖然任務由人類下達,但在執行過程中,它擁有大量「選擇空間」:要從哪裡飛、在哪裡躲避、何時發動攻擊,全都由它自己決定。

聽起來很強大對吧?但這也引發另一個問題:它的自由程度,是不是已經比很多人類上班族還高?你早上起床、趕捷運、回信、排會議,幾乎每一步都被排程與演算法牽著走。而 Spitenik,則是在不斷變化的環境中,做出一個個反應式的選擇。如果我們說 AI 是機器,那我們每天的生活模式,又有多少空間是真正自由選擇的?

當然,今天的 AI 還不會「拒絕」任務,至少不會用語言說出「我不想做」這種話。但從功能上來看,它們已經開始出現「不照指令走」的行為。例如當環境不利時選擇暫停、改變策略,這種行為其實本質上就是「不執行原指令」。而且隨著系統架構越來越複雜,AI的行為也越來越需要用「意圖」、「判斷」、「選擇」來解釋。這正是哲學家所說的「功能性自由意志」(Functional Free Will)。

更重要的是,這不再只是理論推演,而是實際正在發生的系統行為變化。AI 開始像人一樣,會因為不同的內部與外部條件,做出多樣的行動決策。我們還能只把它當作工具嗎?或許,我們得開始思考,與 AI 合作的未來,不只是下指令,而是「協商目標」。

AI 自由,是未來最大的倫理考題

我們當然可以把目前的 AI 稱為「沒有意識的選擇機器」,但一旦它的選擇影響到現實世界(例如自動駕駛、武器控制、或資源分配),我們就不能假裝這些選擇只是程式的延伸。AI 的決策越來越像人,它是否該承擔部分責任?還是責任永遠由設計它的人類承擔?

這些問題正是下一階段 AI 發展中,最難也最迫切的課題。因為當 AI 開始「不照做」,它就不是單純的工具,而是一個行動角色。我們準備好了嗎?未來的工作場域裡,可能不只是你跟 AI 說:「這任務交給你」,而是 AI 也回問你:「我能選另一個任務嗎?」

(首圖來源:shutterstock)

延伸閱讀:

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》