OpenAI 對 GPU 不滿?奧特曼急澄清、輝達盤後揚

作者 | 發布日期 2026 年 02 月 03 日 9:00 | 分類 AI 人工智慧 , ChatGPT , GPU line share Linkedin share follow us in feedly line share
Loading...
OpenAI 對 GPU 不滿?奧特曼急澄清、輝達盤後揚

市場謠傳,OpenAI 對輝達(Nvidia Corp.)最新一代 AI 晶片並不滿意,已自 2025 年開始尋求替代方案。此舉可能會讓這波 AI 熱潮中最受矚目的兩家企業關係變得更加複雜。

路透社2日引述未具名消息人士報導,OpenAI的策略之所以轉向,是因為該公司日益重視用於AI推論(inference)特定環節的晶片。所謂AI推論,是指支援ChatGPT等應用程式的AI模型,回應用戶請求或詢問的過程。輝達在訓練大型AI模型的晶片領域依舊是霸主,但推論已成為全新戰場。

據報,OpenAI不斷變動的產品路線圖,改變了需要的運算資源類型,這讓該公司跟輝達的談判陷入困境。七名未具名消息人士透露,OpenAI對輝達硬體在處理特定問題時(例如軟體開發、AI與其他軟體間的溝通),向ChatGPT用戶提供答案的速度感到不滿。根據消息,OpenAI需要新的硬體,目標是在未來應付其10%左右的推論運算需求。

兩名消息人士稱,OpenAI已接洽Cerebras、Groq等AI晶片新創商,希望取得速度更快的推論用晶片。不過,輝達跟Groq敲定的200億美元授權協議,讓Groq跟OpenAI的談判直接破局。晶片業界高層認為,輝達挖走Groq核心人才的舉動是想強化其技術組合,藉此在快速演變的AI產業提升競爭力。

據傳,OpenAI去年尋求的繪圖處理器(GPU)替代方案,著重將大量昂貴SRAM(靜態隨機存取記憶體)塞入同一顆晶片,因為這麼做可讓聊天機器人與AI系統在處理數百萬用戶的請求時,擁有顯著的速度優勢。

相較於AI模型的訓練階段,推論功能需要的記憶體更多,因為晶片需要花費較多時間從記憶體抓取資料,而非執行數學運算。輝達、超微(AMD)的GPU技術主要仰賴外部記憶體,這會增加處理時間,並降低用戶與聊天機器人互動時的速度。

在OpenAI內部,這個問題在該公司最近積極推廣的電腦編程產品「Codex」變得尤其明顯。OpenAI員工將Codex的部分弱點,歸咎於輝達基於GPU的硬體。

不過,OpenAI執行長奧特曼(Sam Altman)立刻透過社交平台X發言澄清,「我們非常喜歡與輝達合作,他們製造全世界最好的AI晶片。希望在未來很長一段時間內,我們都能成為他們極具規模的客戶。」「真搞不懂這些瘋狂謠言到底是從哪冒出來的」。

輝達2日在正常盤逆勢下跌2.89%、收185.61美元,創1月22日以來收盤新低;盤後反彈,至截稿前上漲0.45%、報186.45美元。

(本文由 MoneyDJ新聞 授權轉載;首圖來源:shutterstock)

延伸閱讀:

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》