Stability.ai 開源模型 Stable Diffusion 可說是現在最主流也最重要的 AI 繪畫模型。基於開源的 Stable Diffusion,開發者社群創作出許多有趣外掛和模型,如控制形狀的 Control Net 等,相關專案超過千個。
現在這家熱中開源的AI公司又想搞事了──發表類似ChatGPT的開源大語言模型。
人人都有LLM
2023年到目前可說是大語言模型年,幾個月以來,幾乎每週都有新大語言模型面世。大模型、小模型、文本生成、多模組、閉源、開源……現在是大語言模型的春天,各家百花齊放。這熱鬧不僅屬微軟、Google、百度、阿里等科技公司,也屬於所有與AI相關的科技公司。和現在大模型相比,Stability.ai的StableLM大語言模型有什麼特別?
Stability.ai介紹,StableLM是開源透明模型,允許研究人員和開發者自由檢查、使用和修改原始碼。就像Stable Diffusion,用戶可自由使用Stable LM,打造量身訂做的大語言模型。
Stable LM Alpha版模型參數大小為30億和70億,將來Stability.ai還會提供150億和650億參數版。儘管和GPT-3的1,750億參數相比,StableLM小得多,但Stability.ai表示,StableLM是基於比The Pile資料庫還大3倍的擴展資料庫訓練而成,編碼和自然語言對話都有不錯表現。
The Pile資料庫已包括大量書籍、Github知識庫、網頁、聊天紀錄等,還收集醫學、物理、數學、計算機科學和哲學學科論文,可為通用大語言模型、跨領域文本生成訓練提供不錯基準。實際使用時,StableLM與GPT-3的差距並不像紙面參數差異那麼明顯。
Stability.ai公告展示StableLM處理三個任務的實際表現,寫信、寫Rap詞(問題:寫一首深度學習網路與符號人工智慧互嗆的史詩級Battle)和寫原始碼。
Stability.ai還把StableLM託管在HuggingFace社群網站,想搶先體驗的讀者可到這裡看看。但從簡單測試看來,StableLM中文程度還不如猶太裔美籍的中國網紅郭傑瑞(Gerald S. Kowal),更不用說和ChatGPT這優等生比較,故與它對話時盡量選英語較好。
開源還是閉源之爭
和史丹佛大學Alpaca等眾多開源大語言模型一樣,StableLM給很多開發者用終端或伺服器就能客製大語言模型的機會,不用再擔心數據外洩。ChatGPT爆紅後,AI模型隱私外洩事件層出不窮,不久前三星爆出有多名員工外洩公司機密給ChatGPT,導致三星半導體部門決定自己開發AI工具,避免問題再發生。
開源模型除了高透明度,開發者也更容易開發更具創造力的應用。如可客製StableLM,讓它變成不會停的網路作家,或是非常熟悉公司計畫的資深程式設計師或文案寫手,甚至變成網路星座大師。
開源模型給開發者更多想像空間,但同時也讓壞人手段更多更進步。對別有用心者來說,開源大語言模型就是做電信詐騙的神器,可用逼真對話把人們騙得團團轉。開源總會伴隨爭議,這點Stability.ai有預料到。之前因開源Stable Diffusion,Stability.ai已捲入多起涉嫌侵犯藝術家權利的官司,以及用戶使用其工具產生色情內容等爭議。
CEO Emad Mostaque受訪時提到,大模型需要接受更多監督,而不是被公司鎖在小黑盒裡,因此大模型社群開放性非常重要。Stability.ai堅持開源,是想讓更多人使用新技術,啟發更多思考。StableLM就是Stability.ai承諾的證明,人人都有專屬語言模型的未來或許就要展開。
(本文由 愛范兒 授權轉載;首圖來源:Stability.ai)