
小型語言模型(small language model,SLM)比起大型語言模型可望提供更低成本、更具效率的處理能力,未來適用於筆電和手機等裝置。英特爾日前宣布,整個 CPU 和 GPU 產品組合支援微軟開發的 Phi-3 模型。
英特爾成為首批產品陣容支援小型語言模型的硬體製造商之一,包括 Gaudi AI 加速器、Xeon CPU、Core Ultra CPU、Arc GPU 經過最佳化,以支援 Phi-3 系列。
微軟發表的 Phi-3 系列,如按照參數大小包括 Phi-3-mini(38 億參數)、Phi-3-vision(42 億參數)、Phi-3-small(70 億參數)、Phi-3-medium(140 億參數)。
英特爾以所有 Phi-3 型號展示其產品性能,例如從英特爾第六代 Xeon CPU(代號 Granite Rapids)開始,對 Phi-3-medium 4K 和 128K 變體進行基準測試,與第五代 Xeon CPU(代號 Emerald Rapids)同類產品相比性能提高二倍。
轉向 Core Ultra CPU 平台時,Phi-3 將催化邊緣 AI 流程,並提供個人化和回應能力等多項優勢。為此,英特爾使用 Intel Core Ultra 7 165H 和 Arc A770 測試 Phi-3-mini,基準測試確實顯示令人印象深刻的性能。
「我們與 AI 軟體生態系的領導者(例如微軟)積極合作,是將 AI 帶到無所不在的關鍵。我們很榮幸能夠與微軟密切合作,確保英特爾硬體(涵蓋資料中心、邊緣端和用戶端)支援多款新的 Phi-3 模型」,英特爾副總裁暨資料中心和人工智慧軟體部總經理 Pallavi Mahajan 表示。
(首圖為英特爾 Core Ultra 處理器,首圖來源:英特爾)