Bing 對話式搜尋 AI 運算急需 GPU,微軟向甲骨文租用算力

作者 | 發布日期 2023 年 11 月 08 日 12:21 | 分類 AI 人工智慧 , Microsoft , 網路 line share follow us in feedly line share
Bing 對話式搜尋 AI 運算急需 GPU,微軟向甲骨文租用算力


微軟(Microsoft)需要更多運算資源來滿足爆炸性成長的 AI 服務,而甲骨文(Oracle)恰巧有數以萬計的 NVIDIA A100 和 H100 GPU 可供租用,促成雙方合作。

甲骨文 7 日宣布與微軟達成多年協議,微軟使用 Oracle Cloud Infrastructure(OCI)AI 基礎設施以及 Microsoft Azure AI 基礎結構來推理 AI 模型。透過適用於 Microsoft Azure 的 Oracle Interconnect,微軟能夠使用 Azure Kubernetes Service(AKS)等服務大規模編排 OCI 運算,以滿足 Bing 對話式搜尋不斷成長的需求

「我們與甲骨文合作,Oracle Cloud Infrastructure 和 Microsoft Azure AI 基礎結構的使用,將擴大客戶造訪範圍並提升搜尋速度」,微軟搜尋和人工智慧全球行銷負責人 Divya Kumar 透過聲明表示。

在導入 OpenAI 的 AI 技術後,你可對 Bing Chat 輸入文字提示、問題以及查詢,它會嘗試產出文字內容、尋找資訊,甚至產生各種風格的圖片。Bing Chat 背後支援的大型語言模型不僅需要大量 GPU 叢集進行訓練,還需要大規模推理,而甲骨文的 GPU 叢集有助於完成這些推理工作。

Oracle 宣稱 OCI Supercluster 可擴展至 4,096 個 OCI 運算裸機執行個體,配備 32,768 個 A100 GPU 或 16,384 個 H100 GPU,以及 PB 級高效能叢集檔案系統儲存,以高效處理大規模的應用程式。

值得一提的是,根據網站流量分析工具 StatCounter 數據顯示,2023 年 10 月,Bing 在所有平台的全球搜尋市占率為 3.1%,遠遠不及 Google 市占率 91.6%。進一步來看,電腦上的 Bing 搜尋市占率來到 9%,平板電腦則有 4.6%。

從流量數據似乎看不出 Bing 不斷成長的需求,但微軟 AI 需求顯然越來越大,以至於軟體巨擘要將 Bing 搜尋引擎所用的一些機器學習模型轉移到甲骨文的 GPU 叢集上。

(首圖來源:Oracle News APAC