IBM 開放自家 Granite AI 模型原始碼,有效降低開發人員使用 LLM 門檻

作者 | 發布日期 2024 年 05 月 17 日 8:10 | 分類 AI 人工智慧 line share follow us in feedly line share
IBM 開放自家 Granite AI 模型原始碼,有效降低開發人員使用 LLM 門檻


近兩年來,開放原始碼促進會(OSI)一直致力於 AI 相容之開放原始碼的定義工作。但所有大型語言模型(LLM)的開源都必須基於 Apache 2.0 授權條款進行授權,以便用於研究和商業用途。但正是這個「商業」用途,讓 LLM 開源變得很困難。Meta 便曾宣稱他們已開源了自己的 LLM,但其實並沒有完成。如今 IBM 成功做到自家 LLM 的開源。 

IBM 透過使用公開可用資料集的預訓練資料,成功開源了 Granite LLM 程式碼,這些資料集包括 GitHub 無瑕程式碼(Clean Code)、Starcoder 資料、公共程式碼庫和 GitHub issue。這些解碼器模型(decoder-only model)接受了 116 種程式語言的程式碼訓練,具備 30 億到 340 億個參數。這些模型支援開發人員各種應用,包括從複雜的應用程式現代化到設備記憶體受限等任務。

去年 IBM 生態系總經理 Kate Wooley 曾表示,Granite LLM 模型並不是要滿足所有人的需求,其為經過精心策劃調整的模型,並且專門針對 IBM 希望企業使用的商業使用案例。具體而言,這些模型是用於程式設計的。

任何人皆可透過 InstructLab 及 Ollama 使用 Granite LLM

IBM 已在內部 IBM Watsonx Code Assistant(WCA)產品中使用這些 LLM,包括用於 IT 自動化的 WCA for Ansible Lightspeed 和用於現代化 COBOL 應用程式的 WCA for IBM Z。雖然並不是每個人都能負擔得起 Watsonx,但現在任何人都可以透過 IBM 和 Red Hat 的 InstructLab 使用 Granite LLM。

Red Hat 資深副總裁暨產品長 Ashesh Badani 表示,InstructLab 將「降低生成式AI在混合雲上面臨的許多障礙(從有限的數據科學技能到所需的龐大資源)」。其重點是降低開發人員使用 LLM 的門檻。大約 1 年前,這些功能還需要搭配高端且相當昂貴的硬體才能使用,如今即使在筆電上也能順暢運行。不僅如此,過去 LLM 訓練動輙數億美元,現在只需幾千美元就能搞定。

除了 InstructLab 之外,開發人員還可以使用 Ollama 在本地端運行 LLM。透過 Ollama,開發人員運行 LLM 所需的一切(模型權重和所有配置)全都打包在 Modelfile 中。它就好比是 LLM 的 Docker 一樣。這些模型可以在 Hugging Face、GitHub、Watsonx.ai 和 Red Hat Enterprise Linux (RHEL) AI 等平台上獲得。

IBM 預計,開發人員除了可用 Granite LLM 寫程式碼之外,還可以用來創建測試以及查找/修復錯誤來節省時間和精力。換言之,開發人員日常工作中許多例行但必要的任務(從生成單元測試到編寫設計文件或運行漏洞測試),都可以透過這些模型自動化。

(首圖來源:科技新報)

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》