與 AI 息息相關的機器學習法在過去 15~20 年呈爆炸性成長,電腦本身無法思考,但透過物理學的基本概念和方法,機器可以模仿記憶與學習,今年兩位諾貝爾物理學獎得主 John Hopfield、Geoffrey Hinton,便是奠定強大機器學習基礎的重要推手。
人工神經網路非常龐大且由多層建構,稱為深度神經網路,訓練方式稱為深度學習。傳統軟體工作原理像遵照食譜,軟體接收數據,根據清晰描述處理並產生結果,就像照食譜製作蛋糕;機器學習最初靈感來自大腦結構,讓電腦像人腦建立可從錯誤學習並持續改善的適應型系統,嘗試解決模糊、複雜、無法以指令處理的問題,如判讀圖片並辨識物體。
▲ 模仿大腦運作的人工神經網路。(Source:諾貝爾獎官方網站)
人工神經網路的大量類神經元以類似突觸的連結計算,今年第一位諾貝爾物理學獎得主 John Hopfield 建立以物理學自旋系統描述的網路,每個節點都可儲存單獨的值,透過尋找節點間的連接值訓練以儲存重建資訊,系統性節點工作並更新值,隨著網路逐步運作,可找到最相似的儲存模式。
Geoffrey Hinton 則使用 Hopfield 網路發明另一種能獨立尋找資料屬性執行辨識圖片特定元素等要求的方法:玻爾茲曼機(Boltzmann machine)。機器更新連接中值訓練,可從給定範例辨識新資訊的熟悉特徵,如看見兄弟姊妹就能看出他們有親屬關係,玻爾茲曼機能以類似方式辨識另一個全新例子。
憑著兩人的研究工作,John Hopfield 和 Geoffrey Hinton 為 2010 年左右開始的機器學習革命奠定基礎,使機器學習爆炸性發展。
(首圖左為 John J. Hopfield,右為 Geoffrey E. Hinton,來源:諾貝爾獎)