圖靈測試與「中文房間」顯示 AGI 還很遠:AI 仍在抄襲人類階段

作者 | 發布日期 2025 年 10 月 31 日 7:40 | 分類 AI 人工智慧 , 科技趣聞 line share Linkedin share follow us in feedly line share
Loading...
圖靈測試與「中文房間」顯示 AGI 還很遠:AI 仍在抄襲人類階段

人工智慧(AI)是否真有智慧的討論不斷。回顧 1966 年 ELIZA 機器人,早期 AI 系統僅有簡單模式且答案都是設定好的,卻讓許多人誤以為它有智慧。時至今日,ChatGPT 等聊天機器人再次讓人們重蹈覆轍,誤認它們會思考。以艾倫·圖靈 1950 年設計的測試,如果考官無法分辨與人類還是機器對話,機器就算通過測試。

然AI是否真有智慧,還是擅長模仿?美國哲學家約翰‧希爾(John Searle) 1980年就提出「中文房間」論點,深入探討這問題。希爾認為儘管計算機能模仿理解,並通過圖靈測試,但不代表有智慧。中文房間為將不懂中文的人關在房裡,以一套指令(如程式)回答門下塞進來的中文紙條。儘管這人能流利回答,但他只是正確使用指令,而非真正看懂中文。

目前AI系統無論多先進,以希爾論點,始終沒有真正理解力。生成式AI只是高階版複製貼上,而代理AI無非是大型語言模型對話。儘管人工通用智慧(AGI)討論也跟著升溫,但我們距目標仍然遙遠。OpenAI執行長Sam Altman曾表示,對構建AGI充滿信心,並將AGI分成五個階段,現在已邁入第三階段,即自律執行任務的AI。

未來是否出現像人聰明的AI?是可能的,但技術尚未達到。中國研究者設計生存遊戲要求AI不斷試錯找到各種問題答案,但這也不會2100年前出現。儘管如此,科技進步往往比預測更快,AI發展仍值得期待。

對某些人來說,AI情感表達已足夠,但將AI視為智慧時,往往也會認為它們很可信,但很多人都知道AI並不可靠。最近OpenAI副總裁凱文·韋爾聲稱GPT-5解決十個未解決的埃爾德什問題,但AI只是搜尋網路假裝是自己算出答案。AI舉動往往反映人類行為,更常讓人失望。

(首圖來源:AI生成)

延伸閱讀:

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》