
去年 12 月,Google 推出 Gemini 2.0 Flash 模型的實驗版本,開啟 AI 代理時代。現在一般用戶和開發者更容易取得 Gemini 2.0 Flash,同時 Google 進一步開發更多版本,滿足如處理複雜提示指令、編寫程式碼等需求。
繼 Gemini App 導入 Gemini 2.0 Flash 提供用戶選用,這款模型現在透過 Google AI Studio 和 Vertex AI 的 Gemini API 提供給開發者,多項 AI 應用服務隨之跟進,比方說 GitHub Copilot、Perplexity Pro 等導入新模型,用戶能有新選擇。
不只如此,Gemini 用戶將能在網頁版和手機版的模型選單,選用推理能力更強的 Gemini 2.0 Flash Thinking Experimental,並與 YouTube、Google 搜尋及 Google 地圖等服務互動,解決複雜問題可望獲得更精準的結果。
Today we’re expanding the Gemini 2.0 family with new options and broader availability.
This builds on the first model we launched in December: 2.0 Flash, our model with low latency and better performance ⚡
Read more on today’s launches ⬇️ pic.twitter.com/SRpDIJMhUP
— Google (@Google) February 5, 2025
▲ Google 擴展 Gemini 2.0 系列模型。
Gemini 2.0 Flash-Lite
Google 從開發者使用上一階段 Gemini 1.5 Flash 獲得價格和速度等意見回饋,希望維持成本和速度的同時也能持續提升品質,於是推出全新 Gemini 2.0 Flash-Lite,是 Google 目前成本效益最高的模型,在 Google AI Studio 和 Vertex AI 以公開預覽形式提供。
Gemini 2.0 Flash-Lite 擁有 100 萬個詞元(token)上下文長度和多模態輸入的能力,每百萬個輸入詞元收費 0.075 美元,每百萬個輸出詞元收費 0.3 美元,產品定位在開發者負擔得起,Google 特別舉例,它為大約 4 萬張不同照片產生相關的一行標題,以 Google AI Studio 付費方案花費不到 1 美元。在相同成本和速度,它的大多數基準測試表現比 Gemini 1.5 Flash 出色。
Gemini 2.0 Pro Experimental
有鑑於開發者對 Gemini 2.0 提出意見回饋,Google 進一步推出 Gemini 2.0 Pro 實驗版本回應這些意見。它擁有 200 萬詞元上下文長度,能夠完整分析和理解大量資訊,還能使用 Google 搜尋和程式碼執行等工具,在編寫程式的表現和處理複雜提示指令的能力表現最為突出。
開發者可在 Google AI Studio 和 Vertex AI 使用 Gemini 2.0 Pro 實驗版本,Gemini Advanced 用戶更能在網頁版和手機版直接選用。
▲ Gemini 家族基準測試結果,其中 Gemini 2.0 Pro 在編碼、推理優於 Gemini 2.0 Flash / Flash-Lite。(Source:Google Blog)
面對 OpenAI 或近期熱議的 DeepSeek 等競爭對手,Google 以多模態、更強大的 Gemini 2.0 應戰。如 OpenAI o3-mini、DeepSeek-R1 還未接受多模態輸入,即加入圖像、文件等附件,而上述 Gemini 2.0 模型全都支援多模態輸入和文字輸出,而更多模態的支援將在未來幾個月內全面推出。
(首圖來源:Google Blog)