Google 揭曉最新 AI 超級電腦,聲稱效能勝過 Nvidia

作者 | 發布日期 2023 年 04 月 06 日 11:59 | 分類 AI 人工智慧 , Google , 晶片 line share follow us in feedly line share
Google 揭曉最新 AI 超級電腦,聲稱效能勝過 Nvidia


Nvidia 在 AI 模型訓練和產品部署具有主導地位,市占超過 90%,目前最受矚目的 AI 模型及其產品即是 OpenAI 的 ChatGPT,結合大量電腦設備和數千個 Nvidia A100 晶片來訓練模型。而自 2016 年以來,Google 一直在設計和部署稱為 Tensor Processing Units(TPU)的自研 AI 晶片,現在有進一步的成果。

Google 4 日發表論文,公開其中一部 AI 超級電腦的詳細資訊,聲稱比競爭對手 Nvidia 的系統運算更快、功耗更低。

Google 已經建構一套系統,其中包括超過 4,000 個 TPU,並結合執行和訓練 AI 模型的客製化零件,這部以 TPU 為基礎的 AI 超級電腦稱為 TPU v4。它從 2020 年開始運作,用於訓練自家 PaLM 模型超過 50 天。

「在效能、可擴展性、可用性上 TPU v4 成為​​大型語言模型的主力」,Google 研究人員表示,TPU v4 能比 Nvidia A100 組成類似大小的系統,運算快 1.2~1.7 倍,功耗低 1.3~1.9 倍。不過,Google 的 TPU 並未與 Nvidia 最新 AI 晶片 H100 進行比較,因為後者推出不久,且採用更先進的製程。

另一方面,由學術界和產業人士組成的開放工程聯盟(MLCommons)制定出 MLPerf 基準測試,在 5 日公布全產業 AI 晶片測試結果和排名。對此 Nvidia 執行長黃仁勳表示,Nvidia H100 的測試結果明顯優於上一代。

「今日 MLPerf 3.0 突顯出以 Hopper 架構為基礎的 H100,其效能是 A100 的 4 倍」,黃仁勳在官方部落格寫道,並認為下一階段的生成式 AI(Generative AI)需要新的基礎設施,以訓練高效能的大型語言模型。

AI 所需的大量算力是相當昂貴的,於是 Nvidia、Google 等產業人士大多專注於開發新的晶片、光學連接零件等,或從軟體技術方面著手,以減少大量運算所需的功耗。

Google 被認為是 AI 領域的主要先驅,旗下研究人員在過去 10 年已經取得重要進展。然而隨著 OpenAI 推出 ChatGPT,引爆人工智慧熱潮,部分人士認為 Google AI 技術商業化方面明顯落後,這也迫使 Google 現在競相發表產品並試圖證明沒有揮霍領先優勢。

(首圖來源:shutterstock)

延伸閱讀: