
近兩年來,開放原始碼促進會(OSI)一直致力於 AI 相容之開放原始碼的定義工作。但所有大型語言模型(LLM)的開源都必須基於 Apache 2.0 授權條款進行授權,以便用於研究和商業用途。但正是這個「商業」用途,讓 LLM 開源變得很困難。Meta 便曾宣稱他們已開源了自己的 LLM,但其實並沒有完成。如今 IBM 成功做到自家 LLM 的開源。
IBM 透過使用公開可用資料集的預訓練資料,成功開源了 Granite LLM 程式碼,這些資料集包括 GitHub 無瑕程式碼(Clean Code)、Starcoder 資料、公共程式碼庫和 GitHub issue。這些解碼器模型(decoder-only model)接受了 116 種程式語言的程式碼訓練,具備 30 億到 340 億個參數。這些模型支援開發人員各種應用,包括從複雜的應用程式現代化到設備記憶體受限等任務。
去年 IBM 生態系總經理 Kate Wooley 曾表示,Granite LLM 模型並不是要滿足所有人的需求,其為經過精心策劃調整的模型,並且專門針對 IBM 希望企業使用的商業使用案例。具體而言,這些模型是用於程式設計的。
任何人皆可透過 InstructLab 及 Ollama 使用 Granite LLM
IBM 已在內部 IBM Watsonx Code Assistant(WCA)產品中使用這些 LLM,包括用於 IT 自動化的 WCA for Ansible Lightspeed 和用於現代化 COBOL 應用程式的 WCA for IBM Z。雖然並不是每個人都能負擔得起 Watsonx,但現在任何人都可以透過 IBM 和 Red Hat 的 InstructLab 使用 Granite LLM。
Red Hat 資深副總裁暨產品長 Ashesh Badani 表示,InstructLab 將「降低生成式AI在混合雲上面臨的許多障礙(從有限的數據科學技能到所需的龐大資源)」。其重點是降低開發人員使用 LLM 的門檻。大約 1 年前,這些功能還需要搭配高端且相當昂貴的硬體才能使用,如今即使在筆電上也能順暢運行。不僅如此,過去 LLM 訓練動輙數億美元,現在只需幾千美元就能搞定。
除了 InstructLab 之外,開發人員還可以使用 Ollama 在本地端運行 LLM。透過 Ollama,開發人員運行 LLM 所需的一切(模型權重和所有配置)全都打包在 Modelfile 中。它就好比是 LLM 的 Docker 一樣。這些模型可以在 Hugging Face、GitHub、Watsonx.ai 和 Red Hat Enterprise Linux (RHEL) AI 等平台上獲得。
IBM 預計,開發人員除了可用 Granite LLM 寫程式碼之外,還可以用來創建測試以及查找/修復錯誤來節省時間和精力。換言之,開發人員日常工作中許多例行但必要的任務(從生成單元測試到編寫設計文件或運行漏洞測試),都可以透過這些模型自動化。
(首圖來源:科技新報)