華為宣布開源盤古 7B 稠密和 72B 混合專家模型

作者 | 發布日期 2025 年 06 月 30 日 13:00 | 分類 AI 人工智慧 , 中國觀察 line share Linkedin share follow us in feedly line share
Loading...
華為宣布開源盤古 7B 稠密和 72B 混合專家模型

綜合中媒報導,華為(Huawei)30 日正式宣布開源盤古 70 億參數的稠密模型、盤古 Pro MoE 720 億參數的混合專家模型,以及基於昇騰的模型推理技術。

華為表示,此舉是公司踐行昇騰生態戰略的又一關鍵舉措,以推動大模型技術的研究與創新發展,並加速推進人工智慧在千百行業的應用與價值創造。

此外,華為亦指出,盤古Pro MoE 72B模型權重、基礎推理代碼,以及基於昇騰的超大規模MoE模型推理代碼,均已正式上線開源平台;盤古7B相關模型權重與推理代碼則將於近期上線開源平台。

(本文由 MoneyDJ新聞 授權轉載;首圖來源:Flickr/Kārlis Dambrāns CC BY 2.0)

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》