超越 GPU 的想像:量子運算能帶 AI 起飛嗎?

作者 | 發布日期 2025 年 04 月 07 日 8:00 | 分類 AI 人工智慧 , 尖端科技 , 量子電腦 line share Linkedin share follow us in feedly line share
Loading...
超越 GPU 的想像:量子運算能帶 AI 起飛嗎?

近年來,人工智慧技術進步神速,從語言處理到圖像生成、各類的應用範圍越來越廣,同時也徹底改變了我們的生活和工作方式。然而,AI 的快速發展也帶來了對計算能力前所未有的需求、傳統硬體的效能提升已趨緩,摩爾定律帶來的晶體管密度紅利逐漸觸頂,處理器頻率受限於功耗與散熱瓶頸,就連 GPU 的成長速度也明顯放慢。AI 對算力的需求呈指數式暴增,到了難以持續的地步。

於是,大家開始把目光轉向量子電腦,期待它能突破傳統運算極限,為 AI 帶來飛躍性成長。

AI 的現況與算力瓶頸

許多人已經讓 AI 融入他們的工作:例如 OpenAI 的 ChatGPT 協助分析與文書、或是像有些人會使用 Cursor 或是 Claude 協助撰寫程式、還有無數的 AI 應用可以生成圖片或影片互動。這些技術的背後核心是大型語言模型(LLM)、以大量資料為基礎訓練而成。以 OpenAI 的 GPT-3 為例,訓練過程估計需要執行 3.14×10²³ 次浮點運算,是人類史上最複雜的計算任務之一(只是之一,以後只會更恐怖)。這種驚人算力需求讓科技公司不得不投入巨資在雲端 GPU 和 TPU 上,有些新創公司甚至花費超過八成經費在運算資源。

即便有像 DeepSeek 這種節省資源的 AI,算力瓶頸仍在──DeepSeek 這類技術,通常是透過演算法最佳化或模型壓縮降低算力需求。比方說,它可能用稀疏化(sparsity)讓模型只啟動部分參數,或者用知識蒸餾(knowledge distillation)把大模型的知識「濃縮」到小模型裡。根據 DeepSeek 官方說法,他們的模型能在保證性能的情況下,把計算成本降到傳統模型的幾分之一。

舉例來說,DeepSeek 就像把一台吃油超跑改成了省油小車,確實能在一定程度上緩解算力壓力。假設原本訓練一個大模型需要 1,000 萬美元的雲端算力,DeepSeek 的技術可能把成本砍到 300 萬美元,還能保持八成以上的準確度。這種節省算法對中小企業或研究團隊來說是福音,因為他們不用砸大錢也能玩 AI。但問題在於,這只是「減輕」瓶頸,不是「解決」瓶頸。為什麼呢?因為 AI 應用的野心和複雜度也在同步成長。

AI 的應用場景越來越廣,從聊天機器人到自動駕駛,再到醫療診斷,每個領域都想把模型做得更強、更精準。以自動駕駛為例,特斯拉的 AI 系統得即時處理攝影機、雷達傳來的大量資料,還要預測路況,算力需求輕易就超過一般雲端伺服器的負擔。即便 DeepSeek 能把模型壓縮,這些應用還是需要處理更多資料、更複雜的運算,省下的算力很快又被新需求吃掉。

另外一方面,傳統硬體的效能成長正在趨緩。摩爾定律帶來的晶體管密度提升已接近極限,處理器頻率受功耗與散熱限制,連 GPU 的效能成長也開始趨緩。研究顯示,為了提高 AI 模型的準確度,往往只能靠增加算力和擴大模型規模來實現,這導致 AI 對計算資源的需求呈指數式暴增,已到難以承受的地步。雖然硬體加速和演算法優化能稍微緩解壓力,但 AI 發展正面臨前所未有的算力瓶頸。於是,量子電腦被視為潛在解方,期望其突破傳統運算限制,為 AI 開闢新天地。

▲ 量子 AI 市場主要是以研發為主,沒有商業應用。(Source:artsmart

量子電腦如何為 AI 加持

量子電腦與傳統電腦的運作方式截然不同。傳統電腦用位元(bit)表示 0 或 1,量子電腦則用量子位元(qubit),能透過疊加(superposition)同時處於 0 和 1 的狀態。例如,兩個量子位元可同時處理四種狀態組合,三個則是八種,n 個量子位元能表示 2ⁿ 種狀態,這種指數級擴張賦予量子電腦強大的並行計算潛力。此外,量子糾纏(entanglement)讓多個量子位元的狀態緊密相連,測量其一會立即影響其他量子,增強了協同運算能力。

這種特性對 AI 有何幫助?Google 量子 AI 實驗室創辦人 Hartmut Neven 曾說:「先進 AI 將從量子運算中大幅受益。」以訓練大型語言模型為例,這類任務需要龐大時間和算力,量子電腦的並行處理能力可能將訓練時間從數週縮至數天。此外,AI 主要依賴找出模式並辨識,而能同時處理多種可能性的量子運算,或許能提升圖像、語音識別的準確度。生成式 AI 也有望因量子助力處理更多資料,生成更逼真的內容。在決策場景中,例如藥物研發或氣候建模,量子電腦能同時測試無數變數,幫助科學家更快找到最佳解。

例如 2019 年,Google 的 53 量子位元「Sycamore」處理器在 200 秒內完成傳統超級電腦需 1 萬年的任務。雖然這與 AI 無直接關聯,但展示了量子運算的潛力。2022 年,維也納大學團隊用光子量子處理器加速強化學習,讓機器人更快學會走迷宮,證明量子疊加能提升學習效率。

當前進展與初步成果

由於大型容錯量子電腦尚未臨近,各方多預測短期內最可行的模式是「混合量子經典計算」,即將大部分深度學習的訓練與資料處理交由 GPU / CPU 完成,只有小部分最耗算力或最能發揮量子優勢的子任務交由量子處理器(QPU)加速。Google、IBM 亦在研發量子軟硬體協同架構,如 TensorFlow Quantum 或 Qiskit Runtime,讓開發者調用雲端量子資源。Nvidia GTC Quantum Day 也特別提到,市場期待未來 GPU 與 QPU 共同承擔深度神經網路或強化學習的運算──儘管目前的量子位元規模只有幾十至數百個,但若能針對組合優化、線性代數等環節實現加速,各類包括醫療、金融、物流、國防應用都可能搶先受益。

醫療方面,量子模擬可大幅加速分子與蛋白質交互作用的分析,有助新藥研發與疾病機理理解。「維也納大學」的研究團隊在 2022 年曾用光子量子處理器測試量子強化學習,讓機器人同時探索多條路徑,更快學會迷宮走法,被視為量子疊加有助於複雜決策的證明。金融市場關注量子電腦能以指數方式優化蒙地卡羅模擬、投資組合配置、期權定價與詐騙偵測。美國與歐洲多家金融機構正在評估量子近似最佳化演算法(QAOA)的可行性,若能大規模部署,將重新定義高維度交易環境的風險管理流程。

波音的量子感測器試驗展現超精準導航潛力、量子模擬可能將新藥開發週期從 15 年縮至五年;金融領域,量子蒙地卡羅演算法能快速評估市場情境、提升風險管理效率。這些進展顯示量子 AI 運算正在進行更多測試,雖然許多應用都已經現有的 AI 能處理的問題,但量子 AI 可以加速或將這些應用變得更強大。Google 的 Willow 計畫在量子位元技術與錯誤修正取得進展,全球量子技術投資 2023 年已超過 300 億美元,且十年內加速成長。

產業應用的可行性:醫療、金融、能源與軍事

軍事與國防,量子加密與量子解密為關鍵。量子技術若能破解現今廣泛使用的 RSA 或 ECC 加密,勢將造成全球通訊與網路金融體系的重大衝擊。據「Quantum Apocalypse Is Coming. Be Very Afraid」一文所述,人們將 Q-Day 定義為量子電腦能即刻破解既有加密系統的那一天,而這在地緣政治層面將引發嚴重後果。若某個國家率先完成可用於軍事情報分析或密碼破解的量子裝置,恐造成世界秩序洗牌。美中雙方皆積極布局量子通訊衛星與量子感測器,美國更有《國家量子倡議法案》提供大筆資金,也對中國量子企業祭出投資限制措施。歐洲與日本等地亦透過政府計畫推動量子研究。

一旦有人建成可以運行 Shor 演算法(可破解 RSA 加密的演算法)的大型量子電腦,絕大部分的傳統加密方式都可能遭到破解。無論是網銀交易、敏感軍事報告、甚至私密訊息、虛擬貨幣錢包都可輕鬆破解。最恐怖的是,當破解方式一旦確立,不見得會以劇烈的全球大恐慌呈現,更可能以在暗處以潛伏的方式、進行資料竊取與關鍵基礎設施的定向攻擊,也可能一舉釋出龐大資料造成全面恐慌。這種威脅促使像美國國家標準技術研究院(NIST)等機構致力推動「後量子加密演算法」標準化,包含利用高維度晶格或其他量子難解問題為新加密基礎。若企業與政府無法及時換用抗量子密碼,將面臨龐大風險。

也有陰謀論說,許多國家級單位或許早就在祕密蒐集大量加密資料,等待量子電腦成熟後再集中破解,導致資訊安全出現「現在攔截、未來解密」的嚴峻局面。美國海軍戰爭學院前教授 Chris Demchak 的分析就指出,一旦對手能即時破解軍事通訊,可能在潛艇部署、衛星監控、飛彈配置等核心領域掌握致命優勢。甚至連比特幣區塊鏈也可能一夕崩潰,因為現行的橢圓曲線加密遭量子電腦攻破後,惡意分子可盜領持有者的加密資產。

挑戰與現實限制

量子 AI 要飛躍性成長並不容易,硬體是最大瓶頸。一般電腦資料是用 0 和 1 位元存儲,位元很穩定,弄錯機率很低。但量子電腦是疊加態量子位元(qubit),它們很特別,能同時是 0 和 1,還能跟其他量子位元糾纏。問題是,量子位元超級敏感,外界一點小干擾,比如溫度變化、磁場抖動、甚至旁邊有個電子亂跑,都可能讓資料失去原本的狀態不準確,就叫「去相干」(decoherence),導致運算結果錯得亂七八糟,所以需要「糾錯」救場,糾錯就是用好幾個量子位元「保護」一個重要量子位元,資訊分散出去,這樣就算有幾個壞掉,還能用剩下的拼回來。

這種技術叫「量子誤差修正碼」(quantum error-correcting code)。比如有名的「Shor 碼」,是用九個量子位元保護一個,讓錯誤率降至可接受範圍。但這也有代價,多了「備份」,量子電腦需要的量子位元數量就得多好幾倍,控制起來也更麻煩。

目前量子處理器僅有數十到數百個量子位元,且屬「噪聲中等規模量子」(NISQ)裝置,未能實現糾錯。專家估計,實用AI應用需上百萬個穩定量子位元,但打造如此規模的設備在物理和工程極為困難──量子位元極脆弱,需在接近絕對零度的環境下運作,擴展性受限。Google 的 Julian Kelly 預估五年內可能有初步應用,IBM 計劃 2029 年前推出數百個糾錯量子位元系統,但多數學者認為大規模應用還需十年以上。

▲ Google 的量子 AI 實驗室。

飛躍的希望還是炒作多於現實?

量子電腦的問題除了技術,還有實現難度與瓶頸:NVIDIA 2025 GTC 宣布要蓋量子運算研究室,顯示業界對量子運算信心滿滿,Quantum Day 讓股票如 D-Wave Quantum 活動期間上漲 9.4%;不少大企業的量子實驗、論文、強化學習成果都能為量子 AI 的可行性背書。技術成熟會大幅縮短訓練模型的時間、各大 AI 應用領域也將有顯著進步。

但當前量子 AI 相關研究多為實驗室展示、缺乏商用應用,且硬體穩定性不足以支撐大規模 AI 模型,且加密破解風險也令人擔憂,Wired 報導指出,Shor 演算法若實現,可能讓 RSA 加密崩潰,衝擊金融與隱私安全。有預估 2035 年之前,會有三分之一機率讓量子電腦有重大突破,但現階段看來的量子 AI 難以有立即的可行性發展。

不過量子研究的確是全球重點項目,中國以舉國體制投入、美國透過國家量子倡議法參與,企業如 Google、IBM、微軟等大公司也積極布局。歐盟也有持續投入數億歐元的量子旗艦計畫。未來隨著量子位元規模提升、得以在特定領域實現糾錯時,少數領域可能率先應用量子 AI。但要全面改變 AI 格局的時間還難以預測,在此之前,量子位元結合傳統硬體的運算方式可能成為過渡方案。

(首圖來源:shutterstock)

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》