高通正式進軍 AI 晶片市場!新品 AI200 / AI250 明後年亮相,股價大飆逾 20%

作者 | 發布日期 2025 年 10 月 27 日 22:55 | 分類 AI 人工智慧 , IC 設計 , 半導體 line share Linkedin share follow us in feedly line share
Loading...
高通正式進軍 AI 晶片市場!新品 AI200 / AI250 明後年亮相,股價大飆逾 20%

高通今日宣布新人工智慧(AI)加速晶片,挑戰輝達(NVIDIA)主導、AMD 緊追的 AI 晶片市場。消息一出,高通直接暴漲 20.62%,暫報 203.02 美元,NVIDIA 一度走跌,目前在平盤上下震盪。

高通新 AI 晶片 AI200 將於 2026 年上市,AI250 2027 年推出,兩者都以液冷全機架系統供應。外媒 CNBC 指出,這種配置與 NVIDIAAMD 產品相似,也都將 GPU 整合進整機架系統,最多可讓 72 顆晶片協同成一台電腦。

高通資料中心晶片是以智慧手機晶片 AI 元件「Hexagon NPU 為基礎設計。

高通資料中心與邊緣運算事業總經理 Durga Malladi 表示:「我們一開始希望先在其他領域證明自己的實力,當在那些領域建立起基礎後,再升級到資料中心層級就變得相對容易。」

高通過去聚焦無線通訊與行動裝置用晶片,而非大型資料中心。進軍資料中心市場意味以 AI 為核心的伺服器市場將出現新競爭者。

高通表示,新晶片將聚焦「推論」(Inference)階段,也就是執行 AI 模型,而非「訓練」(Training)。機架級系統最終將降低雲端服務供應商等客戶的營運成本,每個機架耗電量約 160 千瓦,與 NVIDIA GPU 機架耗電量相當。

Malladi 表示,高通也會單獨銷售 AI 晶片與其他零組件,特別是希望自行設計伺服器機架的超大規模資料中心客戶。其他 AI 晶片公司如 NVIDIA AMD,也可能成為高通資料中心零件(如 CPU)潛在客戶。

Malladi 指出「我們希望確保客戶能有彈性選擇,無論是整套採用,還是部分搭配使用都可以」。

不過高通並未透露晶片、加速卡或整機架售價,也未說明單一機架可安裝多少顆 NPU5 月高通宣布與沙烏地阿拉伯的 Humain 合作,提供資料中心 AI 推論晶片,Humain 為客戶,並承諾部署總耗電量達 200 兆瓦系統。

高通強調,新 AI 晶片功耗、擁有成本(TCO)及記憶體處理架構都具優勢。AI 加速卡支援高達 768GB 記憶體容量,超越 NVIDIA AMD 產品。

(首圖來源:科技新報)

延伸閱讀:

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》