取代 GPU?季辛格:AI 泡沫真正的引爆點是量子運算

作者 | 發布日期 2025 年 12 月 01 日 16:30 | 分類 AI 人工智慧 , GPU , 尖端科技 line share Linkedin share follow us in feedly line share
Loading...
取代 GPU?季辛格:AI 泡沫真正的引爆點是量子運算

前英特爾執行長 Pat Gelsinger 近日接受《金融時報》訪問時表示,AI 熱潮短期不會退燒,但真正會戳破泡沫的並非經濟趨勢,而是「量子運算的突破」。他形容量子是「與傳統計算、AI 並列的第三支柱」,一旦量子演算法成熟,現今以 GPU 為核心的 AI 訓練架構將面臨根本性挑戰。他甚至認為量子運算可能在兩年內迎來關鍵突破,並之後取代 GPU 主導地位。

量子為何可能威脅 GPU?

儘管 GPU 在矩陣乘法與大規模深度學習中占據主導,但量子計算與 GPU 的運算模式本質上完全不同。

GPU 的核心優勢是利用大規模平行處理加速矩陣運算,當前 AI 模型(Transformer、LLM)幾乎全部建立在矩陣乘法堆疊之上。

而量子演算法並非單純追求浮點運算的吞吐量,而是利用「疊加、糾纏與干涉」來直接改變問題的複雜度級別。

例如 Grover 演算法能大幅縮減非結構化資料的搜尋次數,而 QAOA 則利用量子疊加態同時探索多種最佳化路徑,這讓量子計算在處理複雜組合最佳化問題時,具備傳統 GPU 暴力計算模式難以企及的潛力。

量子現在還卡在哪裡?

談到量子計算,就繞不開的核心問題,如退相干、量子糾纏維持難度、硬體成本過高,以及 qubit 數量遠不足以支持真正的 AI 作業規模。

現階段 qubit 對環境極度敏感,只要輕微干擾就可能讓量子態失效,這也是量子計算長期卡關的主因──退相干(decoherence)。無論是熱擾動、電磁噪聲,甚至細微震動,都足以破壞 qubit 的疊加與糾纏,使運算提前終止。主流超導 qubit 的相干時間通常僅有 百微秒級;即便較穩定的離子阱 qubit 也僅能維持毫秒至秒級,仍不足以支撐大型量子電路。

量子糾錯(QEC)則大幅拉高系統規模與成本。依據目前的誤差率,要讓量子電腦具備處理 AGI 等級 AI 工作負載的能力,至少需要 100 萬至 1 億個物理 qubit 才能換得 1 萬至 10 萬個可運作的邏輯 qubit。然而現階段 IBM、Google 的處理器僅約 50~100 多個 qubit,與可容錯量子運算的需求仍相差數千倍。

更具挑戰的是,多數超導量子系統必須維持在極低溫環境中,比外太空還寒冷,並依賴稀釋冷凍機長時間運轉,不僅硬體造價高昂,也使能源消耗與維護成本遠超 GPU 為核心的 AI 伺服架構。

此外,量子 AI 演算法尚處於實驗階段,與 CUDA、PyTorch、TensorFlow 等既有生態完全不兼容,且缺乏可大規模商用的模型。對企業而言,量子計算雖具潛力,但距離足以挑戰 GPU 主導的 AI 訓練架構仍有漫長差距。

量子成熟可能還需要時間

儘管 Gelsinger 對量子運算抱持極為樂觀態度,但如輝達執行長黃仁勳則認為量子商用化仍需十年以上成熟期。目前多數研究聚焦於「量子 × 傳統運算混合模式」,將量子作為特定最佳化與模擬任務的加速器,而非全面取代 GPU。隨著量子糾錯技術、量子互連、與演算法成熟度逐步提升,量子對 AI 生態的真正衝擊將取決於能否在成本、規模化與穩定性上取得突破。

(首圖來源:Pixabay

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》