台大資工系教授林守德:論第三波人工智慧技術革命

作者 | 發布日期 2017 年 08 月 07 日 9:56 | 分類 AI 人工智慧 follow us in feedly

人工智慧(AI)在 AlphaGo 打敗人類之後成了顯學。本文希望能從 AI 的定義開始,談及 AI 能成就的事情與不能成就的事情,並提出 AI 目前碰到的困境,與接下來希望解決的難題。



人工智慧從 1950 年代圖靈提出迄今已超過 60 年了,這 60 年來人工智慧經過數次大起大落。從一開始很高的期待,到後來令人失望的發展、經歷兩次「AI 冬天」讓研究者與投資人望而卻步,又至於今天第三波 AI 的崛起。算是歷史上僅見能大起大落數次的學科。

人工智慧可有三層次定義:第一層次是「弱人工智慧」或「狹隘人工智慧」,基本上就是希望電腦能解決某個需要高度智力才能解決的問題,而不要求它跟人類一樣有全面智慧解決各式各樣不同的問題。例如 Google AlphaGo、IBM Watson 或自動駕駛,就是弱人工智慧的例子。它們可在單一領域(如圍棋、益智問答)達到媲美人類的成就,但卻不能解決其他對人類而言相對容易的問題(如 AlphaGo 不會開車,Watson 不會下棋)。目前弱人工智慧最主流的方法算是以機器學習為本,尤其以「深度學習」技術最熱門。機器學習的架構是在統計與計算的方法下運用巨量資料來做預測與決定,較擅長解選擇與是非題,而非申論與論述的問題。

第二個層次是「強人工智慧」或「泛人工智慧」:強人工智慧要求電腦的智慧需要更全面廣泛,需要有推理、學習、規劃、語言溝通、知覺等能力,擁有這些能力的電腦才有可能展現出全面性的智慧、跟人類並駕齊驅。在這個方向過去學者提出一些並非基於機器學習的方法,通稱為「知識為本」(knowledge driven)法。這個方法強調如果能將所有知識輸入電腦,電腦就能從這些知識去推論(如知識本體論與一次邏輯推論等技術)。但這類方法並沒有達到全面性的成功,主要是世界的知識太多,也沒有很有效率表述的方式讓電腦推論。近年來深度學習為本的技術(如記憶增強神經網路)在賦予電腦推論能力的方向雖有進展,但泛人工智慧能力還離人類智慧有一段距離。

第三個層次是 John Searle 提出的「強人工智慧假說」(strong AI hypothesis)。在這個層次,電腦需要擁有跟人類一樣的「心靈」,需要認知自我並可以跟人類一樣思考。我們在電影小說中看到的一些有自我意識的 AI 大致都屬於這個層次。然而,這個層次普遍認為在透徹人腦的智慧及自我意識產生的機制前,不大可能達成的任務。

(Source:Flickr/Charlie Wollborg CC BY 2.0)

不同的人談到的 AI 可能是指不同層次的定義。例如阿里巴巴的馬雲曾說:「我們討厭談論 AI,沒有數據的公司才會討論 AI」,這句話的 AI 應該是指希望利用「知識為本」的方法來解決強人工智慧問題的 AI;其對應就是以「數據為本」的機器學習方法產生的「弱人工智慧」。

目前的 AI 技術在弱人工智慧有很好的進展,研究方針漸漸移往強人工智慧,但對賦予 AI 自我意識的第三層次仍距離遙遠。

談到第三波人工智慧應該要研發的技術,我們要先理解前兩波的人工智慧方法。第一波人工智慧大約是在 1990 年代前電腦的計算與儲存能力還有限的時候,人工智慧多是以「專家系統」的方式實現。也就是人類將一些專家才懂的知識(如醫學、法律)變成一條條「規則」(如吃多喝多尿多可能是糖尿病)並輸入電腦,電腦就可以藉由這些規則判斷。1980 年代利用這些規則產生的「人工智慧專家系統」的確造成一股風潮,例如有一個專門幫客戶從事電腦組裝的公司 XCON 就利用這樣的技術省下數千萬美元成本。然而,專家系統在 1980 年代末期逐漸淡出,主要是因為聘僱專家成本高,且系統無法普遍化(例如醫師系統無法處理法律事務)。

第二波人工智慧是在 1990 年代中期開始受到重視。主要是因為電腦的記憶空間跟速度突飛猛進,再加上網際網路蓬勃發展,資料的取得與蒐集愈來愈容易。第二波人工智慧主要是以機器學習運用在巨量資料探勘為本,以大量的資料配合統計及計算科學的方法讓電腦能從事決策。機器學習是一個很廣的領域,大致上可分成指導式、非指導式、強化式學習三大類。指導式的學習乃機器學習中最常見的方法,主要是希望從大量(輸入、輸出)資料配對中學到輸出與輸入的關係,這樣對將來未曾看過的輸入資料,仍能猜出對應的輸出。例如輸入資料可能是某個人的體檢資料(如 X 光照片),輸出就是這個人是否罹患某種疾病。指導式學習擅長分類以及預測數值,只要讓電腦看過夠多例子,就會自動預測。非指導式學習的使用情境就比較不同,並沒有明確的輸出,而是希望從輸入的資料裡學習一些因子的相關性,以及資料的分佈狀況。至於強化式學習,是在學習 AI 跟環境如何互動,這個方法可從資料去學習某個行為會對周遭產生什麼影響,獲得什麼樣的報酬。例如圍棋 AI AlphaGo 就是利用強化式學習,在自我對戰的過程中增強自己的能力。

機器學習相關技術在近兩年達成空前未有的成就,主要的原因是「神經網路深度學習」技術的成熟。神經網路是已研究數十年的技術,而深度學習,一言以蔽之,就是將神經網路疊合成多層,以產生一個複雜的非線性模型來學習。深度學習之所以成功,就是因為可對資料(尤其是語音或圖像這種由基本要素如音波或像素組成的資料)從事多層次表達,這些表達更適合讓機器分類或預測。所以深度學習可看成一種「資料表達」或是「訊息前處理」方式,這種資料表達的方式用在指導式、非指導式、強化式學習都有很大的成功。然而,深度學習是不是 AI 的最終萬靈丹,大部分學者表示並不樂觀。如果把強人工智慧看成登陸月球這樣困難的問題,深度學習的技術就像我們目前找到一棵可以長很高的樹,但不表示我們只要繼續種出最高的樹,就可以到達月球。

(Source:Google)

第二波人工智慧在 AlphaGo 打敗人類棋王達到最高峰,AI 也成為全球矚目的焦點。然而,AI 並不是完全沒有缺點,在 AlphaGo 之後,下一波人工智慧技術相關的討論應運而生。這第三波人工智慧應該要解決的問題其實專家學者各有分歧,以下是我個人的觀點:

一、首先我們還是希望能解決 AI 還不夠聰明的問題。目前第二波人工智慧的成就都在於「弱人工智慧」方面,也就是電腦可以成為單一領域的專家,卻沒有更全面的智慧。因為機器學習的方法主要是基於統計以及經驗,需要大量的資料來訓練,對於更廣泛且深層的理解就顯得能力不足。例如遞移律(A>B>C 則 A>C)這樣對小學生而言很容易理解的觀念,機器學習反而不容易學。過去兩年許多深度學習的進階版就是希望解決這樣的問題,從弱人工智慧往強人工智慧的方向發展。

此外,機器學習是資料為本的方法,所以能從資料中學習。但是相對創造發明的能力就比較弱,因為資料裡不會有太多創造發明的例子。所以,如何把機器從「學習」提升到「發明」的境界,也是大家關心的。

二、人工智慧如何與「人」合作。人工智慧目前看到的成就(如 AlphaGo、Watson)都屬於 AI 獨自的成就。然而,一個有智慧的系統,如果能跟人一起合作,應能產生更大的效用,也可稍微緩和「人工智慧搶走人類工作」的疑慮。然而,與人類合作不是件簡單的任務。因為就算人與人成功合作也並非天生水到渠成,除了需要技能互補,也要在情感、合作倫理、互信與溝通上都找到平衡點。所以,要能與人類合作的 AI,不僅要展現出跟人類互補的智慧,更要在合作中展現同理心、信任感與溝通技巧,這些都是目前 AI 還需要加強的部分。

三、提升人工智慧的「安全性」與「可信度」。當愈來愈多服務依賴人工智慧幫忙做決定,這個人工智慧決定的可信度與安全性就很重要。如果人工智慧被惡意人士誤導或利用,對人類可能產生無可逆轉的災害。例如,近年來有許多研究發現,機器學習的判斷有可能被誤導。只要在輸入的地方加上一些擾動,就會讓電腦學到錯誤的模型,輸出完全相反的答案,造成安全上的漏洞。例如人工智慧目前已用在小額信貸或高速交易的判斷。這樣的漏洞可能會讓 AI 對是否貸款或交易判斷錯誤,導致公司損失。

四、人工智慧的「道德」觀。許多名人如物理學家霍金都公開表達對人工智慧的疑慮,擔心它會毀滅人類,就如許多電影小說的情節。的確,人工智慧有可能對人類造成危害,但並非因 AI 產生「自我意識」希望脫離人類的控制;而是 AI 在執行人類命令的時候因誤判或「不夠智慧」傷害到人類。例如:人類可能會要求機器人去冰箱拿東西,一個使命必達的 AI,可能會把途中遇到在地上爬的嬰兒踢到旁邊。因為這樣的 AI 並沒有受「倫理道德」訓練,只唯命是從。所以第三波 AI,在我看來,應該要把道德與倫理觀念納入「智慧」裡,想辦法在現有架構上實現。這個目標的挑戰性很高,因為常常道德倫理跟欲行的目的會有衝突,即使對人類都不是容易的問題。

五、透明的人工智慧方法。人工智慧直到目前還沒有完全普及,有一個很大的原因是人類對其背後的機制與判斷方式不瞭解。心理學家的研究曾顯示,人類對不瞭解的事物接受度相對較低。 所以如何創造出更透明、更容易接受的 AI,也是學者重視的課題。

「讓電腦擁有人類的智慧」就像潘朵拉的盒子,讓人又期待又怕受傷害。人工智慧雖然近年來有極大的進步,然而,我們距離一個安全、透明、有倫理觀念、能與人類協作的「強人工智慧」仍有一段很長的距離要走。第三波的人工智慧,一言以蔽之,將讓 AI 更像人類。接下來,從研發的角度讓 AI 更進化;從產業的角度能預知 AI 的弱點,並以研發為基礎來布局未來「人工智慧普及化」的產業需求,是未來在第三波人工智慧革命裡取得領先地位的關鍵。

(本文轉自 台大資工系教授林守德 Facebook;首圖來源:shutterstock)