晶圓級晶片可用於訓練 AI,Cerebras 推人工智慧開源碼模型搶市

作者 | 發布日期 2023 年 03 月 29 日 9:50 | 分類 AI 人工智慧 , IC 設計 , 半導體 line share follow us in feedly line share
晶圓級晶片可用於訓練 AI,Cerebras 推人工智慧開源碼模型搶市


大家應該記憶猶新,推出全世界最大晶圓級晶片 CS2 的人工智慧晶片新創 Cerebras Systems 日前表示,發表類似 ChatGPT 的開放原始碼模型,提供研究和商業社群免費使用,以促進更多合作。

總部位於美國加州矽谷的 Cerebras 發表 7 個模型,都在名為 Andromeda 的 AI 超級電腦訓練,包括 1.11 億個到 130 億個參數模型。Cerebras 創辦人兼執行長 Andrew Feldman 表示關閉 AI 開放原始碼模型,但並不奇怪,因投資 AI 模型科技大廠須投入大量資金,我們建構開放原始碼模型造成社群興奮,使我們更進步,很大程度就是受惠於開放原始碼。

有更多參數的模型,就能執行越複雜的生成性 AI。如 OpenAI ChatGPT 就有 1,750 億個參數,可創作詩歌和研究,有助吸引更多人的興趣和資金。Cerebras 表示,較小模型可部署手機或智慧助理,較大模型可於 PC 或伺服器執行,適合個性應用。

對越多參數就能執行越複雜 AI 應用這點,Cambrian AI 晶片顧問 Karl Freund 指越大不代表越好,據一些有趣論文,如果 AI 模型充分訓練,小模型也頗為準確,大與訓練有素需要平衡。

Andrew Feldman 強調,最大模型花了一個多星期訓練,通常這需要幾個月,時間縮短要歸功於 Cerebras 系統架構,包括一個晶圓級大小晶片,可訓練人工智慧模型。目前多數 AI 模型都是用輝達 (NVIDIA) GPU 訓練執行,不過越來越多 Cerebras 等新創公司試圖搶占一席之地。

(首圖來源:Cerebras)