
綜合中媒報導,百度 30 日正式開源文心大模型 4.5 系列模型,涵蓋 47B、3B 啟動參數的混合專家(MoE)模型,與 0.3B 參數的稠密型模型等 10 款模型,並實現預訓練權重和推理代碼的完全開源。
目前,文心大模型4.5開源系列已可在百度AI(人工智慧)平台「飛槳」星河社區、HuggingFace等平台下載部署使用,同時開源模型API服務也可在百度智慧雲千帆大模型平台使用。
據了解,文心大模型4.5開源系列針對MoE架構提出了一種創新性的多模態異構模型結構,適用於從大語言模型向多模態模型的持續預訓練範式,在保持甚至提升文本任務性能的基礎上,顯著增強了多模態理解能力,其優越的性能主要受益於多模態混合專家模型預訓練、高效訓練推理框架和針對模態的後訓練等關鍵技術點。
文心大模型4.5開源系列權重依照Apache 2.0協定開源,支援展開學術研究和產業應用。此外,基於飛槳提供開源的產業級開發套件,廣泛相容多種晶片,降低模型的後訓練和部署門檻。
值得關注的是,此次文心大模型4.5系列開源後,百度實現了框架層與模型層的「雙層開源」。作為中國最早投入AI研發的企業之一,百度在算力、框架、模型到應用的布局建構了明顯的AI全棧技術優勢。其中,飛槳是中國首個自主研發、功能豐富、開源開放的產業級深度學習平台,基於多年飛槳開源技術與生態系統累積,此次文心大模型4.5開源系列同步升級發布文心大模型開發套件ERNIEKit和大模型高效部署套件FastDeploy,為文心大模型4.5系列及開發者提供開箱即用的工具和全流程支援。
(本文由 MoneyDJ新聞 授權轉載;首圖來源:shutterstock)