微軟開發 Phi-2 2.7B 模型,輕巧高性能優於 Gemini Nano 2

作者 | 發布日期 2023 年 12 月 14 日 11:31 | 分類 AI 人工智慧 , Microsoft line share follow us in feedly line share
微軟開發 Phi-2 2.7B 模型,輕巧高性能優於 Gemini Nano 2


即使我們步入 2023 年最後階段,生成式 AI 模型發展迅速,絲毫沒有停下步伐,近日 Google Gemini 模型出盡風頭,事實上微軟本身也有 AI 模型的開發成果要與大眾分享。

微軟研究院(Microsoft Research)12 日推出 Phi-2 小型語言模型(small language models,SLMs),具有出色的推理和語言理解能力,可做為 AI 生成文字的應用程式,規模小到可搭載在筆電或行動裝置上。

延續 Phi-1、Phi-1.5 分別擁有 13 億參數,Phi-2 擁有 27 億參數,在多項基準測試取得卓越性能,勝過其他更大的模型如 Meta Llama 2-7B、Mistral-7B。

研究人員在微軟研究院部落格文章指出,Phi-2 以 96 個 NVIDIA A100 GPU,花了 14 天完成訓練。儘管 Phi-2 比起 32 億參數訓練而成的 Gemini Nano 2 少了 5 億參數,但性能可優於 Gemini Nano 2,在偏誤、資料毒性(toxicity)等面向也比 Meta Llama 2 更少。

從微軟提出測試結果可見,儘管 Phi-2 大小只有 Gemini Ultra 一小部分,但它能夠正確回答問題,並使用相同提示糾正學生。

不過,Phi-2 存在很大局限,因為根據 Microsoft Research 制定的許可,它只能用於研究目的,不能應用在商業用途,對 Phi-2 感興趣的開發者和企業恐怕無緣以 Phi-2 打造消費市場想要的 AI 應用程式。

(首圖來源:Microsoft Research