盛讚台積電與聯發科!Google 研發總經理:台灣 AI 供應鏈極度完整,IC 設計重要性持續上升

作者 | 發布日期 2026 年 05 月 02 日 9:00 | 分類 AI 人工智慧 , GPU , 零組件 line share Linkedin share follow us in feedly line share
Loading...
盛讚台積電與聯發科!Google 研發總經理:台灣 AI 供應鏈極度完整,IC 設計重要性持續上升

根據《財訊》雙週刊報導,一年一度「2026 台灣熱管理協會年會暨技術成果發表會」4 月 28 日登場,Google 雲端平台研發總經理 Greg Moore 受邀出席,適逢甫於拉斯維加斯落幕的 Google Cloud Next ’26 持續發酵,第八代 TPU 話題延燒,市場也關注聯發科是否切入相關供應鏈,使其與 Google 的關係再度成為焦點。

此次熱管理協會除邀請Moore分享觀點,也找來微軟(Microsoft)、美商維諦(Vertiv)、英特爾(Intel)等大廠,共同探討下一世代液冷技術發展,協會預估,2026年全球AI伺服器出貨量年成長率可望達28%,液冷滲透率今年將上看40%,帶動相關供應鏈產值維持雙位數成長。

談到與聯發科的關係,Moore維持謹慎立場,強調不評論未來產品與合作夥伴。不過,他表示自己長期在台灣工作,與在地半導體產業往來密切,「我認識很多業者,也有很多朋友」,點出與台灣廠商長期建立的連結。

「台灣真的有非常強的AI產業體系」,Moore指出,從晶片設計、製造到系統整合,台灣已形成高度完整的供應鏈,其中,他肯定台積電在先進製程與封裝領域的領先地位,也提到像聯發科這樣的台灣IC設計業者,具備強勁研發與創新能力。

根據《財訊》雙週刊報導,雖然Moore未進一步說明聯發科在TPU供應鏈中的具體角色,但在AI晶片設計與系統整合需求快速提升之下,他認為台灣IC設計業者的重要性正持續上升。

此外,他同樣看好「液冷」將成為AI伺服器關鍵技術之一,「Google一直都非常重視液冷技術」,他指出,隨著資料中心架構日益複雜,尤其是共置機房(co-location)與第三方機房環境增加,液冷導入仍具挑戰。

不過從趨勢來看,無論是Google的TPU或其他業者的GPU,隨著機架密度持續提升,傳統氣冷已逐漸逼近極限。「你不可能用空氣帶走足夠的熱」,他直言。

Moore進一步指出,過去部分推論晶片仍可採用氣冷,但隨著效能需求快速提升,即使是推論層級,也愈來愈難維持氣冷設計,GPU同樣面臨相同趨勢。這使得熱管理能力,將成為未來資料中心設計與運算效率的關鍵門檻。

(本文由 財訊 授權轉載;首圖為Google雲端平台研發總經理Greg Moore)

延伸閱讀:

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》