 
            人工智慧(AI)是否真有智慧的討論不斷。回顧 1966 年 ELIZA 機器人,早期 AI 系統僅有簡單模式且答案都是設定好的,卻讓許多人誤以為它有智慧。時至今日,ChatGPT 等聊天機器人再次讓人們重蹈覆轍,誤認它們會思考。以艾倫·圖靈 1950 年設計的測試,如果考官無法分辨與人類還是機器對話,機器就算通過測試。
然AI是否真有智慧,還是擅長模仿?美國哲學家約翰‧希爾(John Searle) 1980年就提出「中文房間」論點,深入探討這問題。希爾認為儘管計算機能模仿理解,並通過圖靈測試,但不代表有智慧。中文房間為將不懂中文的人關在房裡,以一套指令(如程式)回答門下塞進來的中文紙條。儘管這人能流利回答,但他只是正確使用指令,而非真正看懂中文。
目前AI系統無論多先進,以希爾論點,始終沒有真正理解力。生成式AI只是高階版複製貼上,而代理AI無非是大型語言模型對話。儘管人工通用智慧(AGI)討論也跟著升溫,但我們距目標仍然遙遠。OpenAI執行長Sam Altman曾表示,對構建AGI充滿信心,並將AGI分成五個階段,現在已邁入第三階段,即自律執行任務的AI。
未來是否出現像人聰明的AI?是可能的,但技術尚未達到。中國研究者設計生存遊戲要求AI不斷試錯找到各種問題答案,但這也不會2100年前出現。儘管如此,科技進步往往比預測更快,AI發展仍值得期待。
對某些人來說,AI情感表達已足夠,但將AI視為智慧時,往往也會認為它們很可信,但很多人都知道AI並不可靠。最近OpenAI副總裁凱文·韋爾聲稱GPT-5解決十個未解決的埃爾德什問題,但AI只是搜尋網路假裝是自己算出答案。AI舉動往往反映人類行為,更常讓人失望。
- The Chinese Box and Turing Test: Ai has no intelligence
- AGI元年がついに到来?2025年、人類は知能の特異点を目撃する #API
- AGI到来の衝撃:サム・アルトマンが予言する2025年の転換点
- 今から1~5年以内に実現されそうなAGI(汎用人工知能) 前編 — その曖昧な定義と新たな労働力としての意
- AI研究者の76%が「現在のAIの延長上にAGIはない」と考えている(AAAI 2025 Presidential Panel Reportより)
- 「大規模言語モデル(LLM)をスケールアップするだけではAGIは実現しない」研究者の76%が懐疑的見解──アメリカ人工知能学会(AAAI)が報告書を発表
(首圖來源:AI生成)
 
                        
 
                 
                 
                 
                 
                
 
                 
                     
                                     
                                    
 
                                    


 
                         
                 
                



 
                    

