高通今日宣布新人工智慧(AI)加速晶片,挑戰輝達(NVIDIA)主導、AMD 緊追的 AI 晶片市場。消息一出,高通直接暴漲 20.62%,暫報 203.02 美元,NVIDIA 一度走跌,目前在平盤上下震盪。
高通新 AI 晶片 AI200 將於 2026 年上市,AI250 在 2027 年推出,兩者都以液冷全機架系統供應。外媒 CNBC 指出,這種配置與 NVIDIA、AMD 產品相似,也都將 GPU 整合進整機架系統,最多可讓 72 顆晶片協同成一台電腦。
高通資料中心晶片是以智慧手機晶片 AI 元件「Hexagon」 NPU 為基礎設計。
高通資料中心與邊緣運算事業總經理 Durga Malladi 表示:「我們一開始希望先在其他領域證明自己的實力,當在那些領域建立起基礎後,再升級到資料中心層級就變得相對容易。」
高通過去聚焦無線通訊與行動裝置用晶片,而非大型資料中心。進軍資料中心市場意味以 AI 為核心的伺服器市場將出現新競爭者。
高通表示,新晶片將聚焦「推論」(Inference)階段,也就是執行 AI 模型,而非「訓練」(Training)。機架級系統最終將降低雲端服務供應商等客戶的營運成本,每個機架耗電量約 160 千瓦,與 NVIDIA GPU 機架耗電量相當。
Malladi 表示,高通也會單獨銷售 AI 晶片與其他零組件,特別是希望自行設計伺服器機架的超大規模資料中心客戶。其他 AI 晶片公司如 NVIDIA 或 AMD,也可能成為高通資料中心零件(如 CPU)潛在客戶。
Malladi 指出「我們希望確保客戶能有彈性選擇,無論是整套採用,還是部分搭配使用都可以」。
不過高通並未透露晶片、加速卡或整機架售價,也未說明單一機架可安裝多少顆 NPU。5 月高通宣布與沙烏地阿拉伯的 Humain 合作,提供資料中心 AI 推論晶片,Humain 為客戶,並承諾部署總耗電量達 200 兆瓦系統。
高通強調,新 AI 晶片功耗、擁有成本(TCO)及記憶體處理架構都具優勢。AI 加速卡支援高達 768GB 記憶體容量,超越 NVIDIA 與 AMD 產品。
(首圖來源:科技新報)






