Google 在 4 月 2 日發布新一代開源模型 Gemma 4,建基於 Gemini 3 核心技術,首次採用 Apache 2.0 授權。開發者現在可以自由修改及商業應用,部署彈性大增,直接挑戰 Meta Llama 4、Alibaba Qwen 等主流開源模型。

4 種規格覆蓋邊緣裝置至資料中心
Gemma 4 推出 4 款規格,包括專為行動裝置與邊緣運算設計的 E2B 和 E4B,以及應付高運算需求的 26B 混合專家模型(MoE)和 31B Dense 模型。E2B 和 E4B 能在 Pixel 手機、Raspberry Pi 及 NVIDIA Jetson Orin Nano 等裝置完全離線運行,近乎零延遲;較大型號則可在單張 80GB NVIDIA H100 GPU 以 bfloat16 精度運作,量化版本亦支援消費級 GPU 部署。
效能超越參數量 20 倍對手
效能方面,31B Dense 模型在業界標準 Arena AI 文字排行榜排全球開源模型第 3,26B MoE 排第 6。Google 指 Gemma 4 效能媲美參數量大 20 倍的模型,用更少運算資源達到前沿水準。自 Gemma 首代推出至今,系列模型累計下載超過 4 億次,社群衍生逾 10 萬個自訂版本。

多模態與長文本支援
Gemma 4 支援文字、影像、影片及語音輸入,具備多模態處理能力。小型模型提供 128K token 上下文視窗,大型模型更支援至 256K token,應付文件分析與長篇內容處理綽綽有餘。模型支援 140 多種語言,內建函數呼叫(function calling)與原生系統提示(system prompt),強化代理式(agentic)工作流程應用。
架構設計各有側重
26B MoE 架構推論時只啟用部分參數,著重降低延遲同提升運算效率;31B Dense 模型則強調整體輸出品質,提供更適合微調(fine-tuning)的基礎,兩者針對不同使用場景。早期用戶測試顯示,Gemma 4 在多語言與視覺任務表現突出,但推理及程式碼生成方面,同 Qwen 相比仍有差距。
開源 AI 競爭格局
Apache 2.0 授權係 Gemma 系列首次採用,相較以往自訂授權明顯放寬,企業可完全掌控資料、基礎架構及模型,無需依賴雲端服務。開源 AI 市場競爭激烈,Meta Llama 4、Alibaba Qwen、法國 Mistral 同 DeepSeek 等模型持續擴張,促使 Google 加快 Gemma 的開放步伐。
資料來源:Google Blog
