Google 本週將推兩款 TPUv8,聯發科攻推論、博通主打訓練

作者 | 發布日期 2026 年 04 月 21 日 10:07 | 分類 Google , 半導體 , 晶片 line share Linkedin share follow us in feedly line share
Loading...
Google 本週將推兩款 TPUv8,聯發科攻推論、博通主打訓練

根據 Wccftech 報導,Google 將可能於這週推出新一代 TPUv8 AI 晶片,並採雙軌設計策略,分別由聯發科博通開發。其中,聯發科負責設計主打成本效率的推論晶片 TPUv8i,主要用於 AI 模型部署與服務端推論運算;博通則負責高效能訓練晶片 TPUv8t,鎖定大型模型訓練需求。

市場同時關注,過去曾與 Google 合作的 Marvell 此次並未參與 TPUv8 開發。Google 去年推出的 TPUv7「Ironwood」已大幅提升運算能力,單一 pod 規模達 9216 顆晶片,單顆晶片搭載 192GB HBM、頻寬達 7.4 TB/s,峰值運算能力達 4614 TFLOPS,顯著高於前一代 TPUv5p 的 459 TFLOPS。

該架構主要針對大規模 AI 訓練與推論叢集設計,透過高頻寬記憶體與大規模互連支撐模型持續擴張。市場預期 TPUv8 將進一步提升運算密度,並強化不同應用場景的分工。

隨著 AI 晶片效能持續提升,周邊基礎設施需求亦同步升級。市場指出,高速互連需求將帶動 OCS(光交換器)、光通訊模組與高頻寬網路設備成長;同時,晶片功耗與熱密度上升,也使液冷散熱與電源系統成為關鍵配套。外界亦傳出,新一代 TPU 在高負載運作下的熱設計挑戰加劇,進一步推動資料中心朝高效散熱架構升級。

根據SemiAnalysis分析,TPUv7 在 2025 年於大型 AI 實驗室的 TCO(總擁有成本)效能具備與輝達 Blackwell 架構競爭的能力,但到了 2026 年底至 2027 年,TPUv8 在 TCO 表現上可能落後於輝達下一代 Rubin 架構。

(首圖來源:Unsplash

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》