現在 AI 沒意識,不代表以後沒有!圖靈獎得主 Bengio 最新論文:技術已不是障礙

作者 | 發布日期 2023 年 08 月 28 日 8:10 | 分類 AI 人工智慧 , 科技教育 line share follow us in feedly line share
現在 AI 沒意識,不代表以後沒有!圖靈獎得主 Bengio 最新論文:技術已不是障礙


人工智慧會發展出意識嗎?今年初 ChatGPT 熱潮席捲全球時,一度是許多人關心的問題(另一個問題則是 AI 會不會讓自己失業)。這種恐懼和危機感,很快就被各種眼花繚亂的大模型產品取代,多數人在焦慮未來和關注眼前之間選擇了後者。

不過59歲的Yoshua Bengio依然關注這件事,22日他和19人團隊公布長達88頁的重磅論文,論證現在AI是否可能擁有意識。Bengio曾於2018年因深度學習研究獲圖靈獎,是人工智慧領域先驅者;其他作者都是人工智慧、神經科學和哲學領域教授和專家。

先看結論:論文認為,目前沒有具意識的AI,但以現在技術條件,創造出有意識的AI不成問題。

光這句話就讓人汗毛直豎。就好像昨天還在談虛擬小鎮相安無事像真人生活的 AI 代理人(AI Agents),明天這群AI代理就開始想說小鎮外面有什麼、真正的人類世界是什麼樣等等等了……

是福還是禍,就先來看論文的研究方法吧。

首先說明什麼是「意識」,雖然每人都能大概講出自己的理解,但在學術界,意識概念長達幾世紀定義都不同,哲學家、神學家、語言學家和科學家數千年分析、界定、詮釋和辯論,但意識的本質唯一統一結論是還有爭議。

人工智慧領域對人工意識的理解也經歷漫長演進。

20世紀,以艾倫·圖靈為代表的行為主義者貢獻最具影響力的定義,也就是著名的「圖靈測試」──如果測試者對無法確認身分的兩個對象(一人一機器)提出相同問題,答案讓他無法區分誰是機器誰是人,就認為機器通過圖靈測試,擁有意識。

行為主義的特點是,將意識解釋成一系列能外部觀察的行為,以行為定義意識。但這方法忽略心理現象,無法解釋智力。

功能主義後來取代行為主義,成為定義人工意識的新主導理論。和行為主義相比,功能主義更關注大腦做什麼及大腦功能對什麼起作用──如果有任何東西能模仿特定心理狀態與計算過程因果關係,意識就可實現。功能主義也對事物如何運作、什麼物質組成等外在體現不感興趣,就好比任何能報時的東西都說是時鐘,而時鐘是什麼製成的並不重要,只要能報時就行。

儘管功能主義也認為有無法體現事物思考性等問題,但依然是現在人工智慧領域較主流衡量AI是否有意識的依據。後來美國哲學家、計算機科學家Hilary Putnam又將功能主義與計算概念結合,提出心智計算主義。簡而言之,心智計算主義認為,精神世界是基於使用資訊、計算(思考)、記憶(儲存)和回饋等概念的物理系統(即計算機)。

Bengio等人論文,對AI有無意識基礎的判斷依據正是心智計算主義。

基礎原則確定後,接下來進入更細緻的「評分」。之前學術界對意識研究有公認結果,如科學家和哲學家對意識必要條件的主張等,論文作者做的事就是,從過往意識研究成果取部分科學理論,當成判斷AI是否有意識的評估依據和指標。

論文介紹循環加工理論(Recurrent Processing Theory,RPT)、全局工作空間理論(Global Workspace Theory,GWT)和計算高階理論(Computational Higher-Order Theories,HOT)三種科學理論。

以循環加工理論(RPT)為例,研究者分成RPT-1和RPT-2兩個指標:RPT-1指「使用算法循環的輸入模組」,RPT-2指「產生有組織、整合感知表示的輸入模組」。

(Source:arxiv,下同)

衡量AI有無意識時,就是將性能和這些指標比對。以下是論文詳列的其他科學理論指標:

當然並不是真的評分某AI,而是要看AI同時滿足多少指標。研究者指出,判斷AI有無意識並沒有絕對答案:

為了方便起見,我們通常把意識說得好像全有或全無,但我們對此可能性持開放態度:一個AI系統可能部分有意識,或不是完全有意識也不是完全無意識。許多屬性有「模糊」邊界,就像襯衫可能介於黃色和綠色之間,這就沒有它是否為黃色的事實。

論文也提到研究使用偏理論法,也和心智計算主義原則對應,偏理論指的是評估AI是否滿足科學理論指標功能或架構條件,而不是去找某些具體行為特徵,「對AI意識研究來說,重理論法十分必要,重理論法是專注系統如何工作,而不是是否顯示可能視為有意識存在特徵的外在行為形式」。

以上便是論文的研究方法。

論文下半部也提出案例,說明判斷特定AI系統是否有意識的研究過程,包括基於Transformer的大型語言模型和Perceiver架構,還分析DeepMind的Adaptive Agent(在3D虛擬環境運行的強化學習AI代理)和Google的PaLM-E(經訓練可操縱機器人的多模組視覺語言模型)。

不過最終結果顯示,這些AI系統都沒有顯示出明顯的有意識傾向。研究者說:「研究證據表明,如果心智計算主義正確,有意識的AI系統近期就能建立。」

論文發表後,NVIDIA首席AI科學家Jim Fan第一時間轉發,表示他對研究團隊的敬佩:

「意識」一直都是AI領域諱莫如深的話題。這篇圖靈獎得主Yoshua Bengio參與撰寫的88頁論文,是對意識科學理論及人工智慧堆棧可能達成的系統調查,我稱讚他們有勇氣解決這個大多數研究員都會迴避的爭議性話題。

身為世界級人工智慧專家和深度學習先驅,Bengio近年研究課題許多都和人工智慧意識相關:

2017年,刊登於arXiv的〈意識先驗〉(The Consciousness Prior)論文;2019年NeurIPS大會,發表「從System 1深度學習到System 2深度學習」主題演講,提出令人印象深刻的觀點:深度學習正從直覺、無意識靜態資料庫學習,轉向有意識、推理和邏輯的新型架構。

3月Bengio也參與轟轟烈烈的反對各家人工智慧實驗室搞AI「軍備競賽」、要求暫停至少六個月比GPT-4更強模型研發的運動,和超過千名產業和學術人士連署;兩個月後又發表一篇系統分析〈危害人類的AI如何出現〉文章。

直到這次聯合發表論文,Bengio一直不遺餘力當那個想警告大家AI未來該何去何從的人。

就像論文說「這篇報告還遠未對這些(AI有無意識的)話題下定論。我們強烈建議支持意識科學及AI應用研究。我們也呼籲,社群應盡快將建立有意識AI系統的道德和社會風險納入考量(儘管這並不是這篇報告的主題)」。

(本文由 品玩 授權轉載;首圖來源:shutterstock)

延伸閱讀: