推理 AI 時代來襲,誰掌握了下一輪伺服器供應鏈主導權

推理 AI 時代來襲,誰掌握了下一輪伺服器供應鏈主導權

AI 運算正從雲端訓練走向邊緣推理,驅動資料中心與伺服器市場重新定義技術規格與組裝邏輯。尤其在散熱與電力效率成為關鍵瓶頸的此刻,供應鏈的主導者也正在更迭。本專題將一探伺服器架構如何隨 AI 演進而變革,以及新一輪「供應鏈權力地圖」的成形過程。
歐姆龍 CT 型 3D VT-X 系列三面出擊!樹立高速高精度 3D 檢測新標竿

歐姆龍 CT 型 3D VT-X 系列三面出擊!樹立高速高精度 3D 檢測新標竿

為了因應 3D 封裝時代對於半導體產品品質的新興檢測需求,歐姆龍(OMRON Corporation)特別推出了三款實現高速/高精度 3D 自動檢測能力的 VT-X 系列 CT 型 X 射線自動檢測設備,並且在 NVIDIA GTC 2025 大會上展示 VT-X 系列設備如何與數位孿生與 LLM-AI 技術完美搭配,為創新自動化勾勒出可行的發展藍圖。

從亞洲到美洲,AI 伺服器的製造接力賽悄然開始

從亞洲到美洲,AI 伺服器的製造接力賽悄然開始

在 AI 運算熱潮席捲下,台灣代工廠商正悄悄改變製造布局,重新調配供應鏈重心,以因應全球客戶對地緣政治風險的高度敏感。其中,鴻海近年在美國、墨西哥等地強化既有據點,並非單純「轉移」生產重心,而是依照客戶需求與政策導向進行策略加碼。以美國為例,鴻海早在 2013 年起即於威斯康辛州建立廠房,2023 年又啟動新一輪投資,支援 AI 伺服器與車用電子製造。川普政府上任後推動美國製造回流政策,使得鴻海原先以墨西哥為主的北美供應鏈,開始加大美國產能比重。

AI 伺服器燒燙燙!換「液冷」上陣後,還有哪些技術難關?

AI 伺服器燒燙燙!換「液冷」上陣後,還有哪些技術難關?

隨著生成式 AI 與大語言模型熱潮來襲,資料中心對高效能運算(HPC)的需求激增,推升 AI 伺服器朝向高密度、高功耗的架構發展,對散熱的需求也遠超過現有氣冷的極限。然而,下一個階段的液冷散熱,將面臨哪些技術瓶頸?

ChatGPT 大腦 AI 伺服器是什麼?拆解台廠提供哪一塊主要零組件

ChatGPT 大腦 AI 伺服器是什麼?拆解台廠提供哪一塊主要零組件

當你每次向 ChatGPT 提問,數秒內得到答案的背後,其實是 AI 伺服器的高速運算,而一台售價高達 300 萬美元的機櫃,通常配置多台 AI 伺服器,拆解其主要零組件,包含 GPU、CPU、HBM 記憶體、主機板、電源、散熱、機殼,儘管目前 AI 伺服器僅占整體伺服器出貨比重不到 10%,但 2026 年有望達到 15%,而台灣生產全球 90% 的 AI 伺服器,扮演關鍵零組件的重要角色。