耗資數千億是浪費,研究:好 AI 不需龐大數據訓練

作者 | 發布日期 2026 年 02 月 09 日 11:02 | 分類 AI 人工智慧 line share Linkedin share follow us in feedly line share
Loading...
耗資數千億是浪費,研究:好 AI 不需龐大數據訓練

現在科技公司在協助各行各業,利用過去收集的龐大資料庫訓練 AI,企盼有一天 AI 能夠超越人類思考。但美國約翰霍普金斯大學研究挑戰 AI 開發的主流策略,他們發現,受生物學啟發而設計的 AI 系統,即使在沒有任何資料訓練的情況下,也能開始模擬人腦活動。

約翰霍普金斯大學 (The Johns Hopkins University) 認知科學家表示,AI 領域目前的發展趨勢是向模型投入大量數據,建立規模堪比小型城市的運算資源,需要耗費鉅資才能做到,但科學家認為,人類只需極少的數據就能學會觀察,更接近大腦的架構設計,或許能讓 AI 系統擁有非常有利的起點。

類腦架構無需龐大資料訓練

研究團隊想知道只靠架構,不需依賴大規模訓練,是否就能使 AI 系統擁有更像人類的起點。他們針對現代 AI 系統中常用的三種主要神經網路設計,分別是 Transformer 神經網路、全連接網路和卷積神經網路。研究反覆調整這些設計,創造數十種不同的神經網路,所有模型都沒有事先進行訓練。研究人員隨後向這些未經訓練的系統展示物體、人物和動物的圖像,並將其內部活動與人類和非人靈長類動物觀看相同圖像時的大腦反應進行比較。

結果發現,增加 Transformer 網路和全連接網路中的人工神經元數量,幾乎沒有產生任何實質變化,但對卷積神經網路進行類似的調整,可以讓活動模式更接近人腦的活動模式。

研究指出,這些未經訓練的卷積模型表現與傳統的 AI 系統不相上下,但傳統的 AI 系統通常需要接觸數百萬甚至數十億張影像訓練。因此他們相信,架構在塑造類腦行為方面發揮的作用,比之前認為的更大。

如果海量資料訓練真的是關鍵因素,那麼單靠架構修改是無法構建出類似大腦的 AI 系統的,如果從正確的藍圖入手,並可能結合生物學的其他見解,或許就能明顯加快 AI 系統的學習速度。

目前研究團隊正在探索受生物學啟發的簡單學習方法,這些方法可能會催生新一代深度學習框架,使 AI 系統速度更快、效率更高,並且對大量資料集的依賴性更低。

材料、機器、生物細胞都會自我進化

最近賓州大學工程與應用科學家,從泡棉材質的自我進化,發現 AI 可能也會自我增強。人們一度認為泡棉材質的行為類似玻璃,氣泡在微觀層面上保持靜止不動,但新研究發現,即使泡沫材料整體形狀保持不變,氣泡也始終處於運動狀態。令人驚訝的是,這種不穩定的運動,與訓練 AI 有一樣的數學原理。這項發現暗示,類似學習的行為可能是材料、機器和生物細胞共有的基本原理。

約翰霍普金斯大學的研究強調,與其依賴數月的訓練、龐大的資料庫和強大的運算能力,不如從建構類似大腦的架構基礎入手,這才是更有價值的做法。該研究已刊登在《自然·機器智慧》期刊。

(首圖來源:pixabay)

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》