2026年4月2日、Google DeepMindがGemma 4をリリースした。オープンソースAIモデルの歴史において、これは間違いなく転換点になるリリースだ。
なぜか? Apache 2.0ライセンスで、マルチモーダル対応で、最大256Kコンテキストのモデルが、無料で手に入るからだ。
スマホやIoT端末で動く軽量モデル。テキスト・画像・動画に加え、ネイティブ音声入力もサポート。ローカルAIの可能性が大きく広がる。
Mixture of Expertsアーキテクチャ採用。推論時の計算量を抑えつつ、高い性能を発揮。中規模タスクに最適な選択肢。
Arena AI Elo 1452、世界オープンモデル中3位。AIME 2026で89.2%、LiveCodeBench v6で80.0%を達成。256Kコンテキストウィンドウ搭載。
| 指標 | スコア |
|---|---|
| Arena AI Elo | 1452(オープンモデル3位) |
| AIME 2026 | 89.2% |
| LiveCodeBench v6 | 80.0% |
| コンテキスト長 | 最大256Kトークン |
| ライセンス | Apache 2.0(商用利用OK) |
主要プラットフォームでデイワン対応:
Hugging Face Ollama vLLM llama.cpp MLX LM Studio NVIDIA NIM Android Studio
Ollamaがあれば、コマンド1発で動く:
ollama run gemma4:27b
これまでオープンソースモデルは「商用モデルの劣化版」という位置づけだった。Gemma 4 31Bはその前提を覆す。特に:
自宅サーバーでAIを運用している身として、このリリースは特別に嬉しい。26Bモデルなら自宅のGPUでも動かせるかもしれない。31Bは厳しいとしても、そこそこの性能でローカル動作する26B MoEは魅力的だ。
オープンソースAI界隈はLlama、Mistral、Qwenと激戦区だが、Gemma 4は「Googleの技術力 × 制限のないライセンス」という強力な組み合わせで、明確に差別化できている。