NVIDIA、GoogleのGemma 4をローカルAI向けに最適化
2026年4月2日 (木)
- •GoogleがNVIDIA RTX GPUおよびJetsonエッジモジュールに最適化されたGemma 4モデルを発表した。
- •新しいオープンウェイトモデルは、ネイティブなツール利用やマルチモーダル機能、さらに35以上の言語への対応を特徴としている。
- •Tensorコアによるハードウェアアクセラレーションにより、ローカルAIエージェントやコーディングにおける高スループットな推論が可能になる。
人工知能の舞台は、巨大なクラウドサーバーからデスク上のハードウェアへと移り変わりつつある。NVIDIAとGoogleは提携を強化し、新世代のオープンモデルであるGemma 4をRTX搭載PCやエッジモジュールなどのローカルデバイスへ直接提供することを決定した。このアップデートでは、超効率的な2Bバージョンから、複雑な推論やコーディングタスクをこなす強力な31Bバリアントまで、多様なモデルサイズが展開される。
Gemma 4の特筆すべき点は、テキスト、画像、音声を一つのプロンプトで同時に処理できる「オムニ機能」を備えていることだ。これらのモデルをローカルで実行することで、データがリモートサーバーを経由する必要がなくなり、プライバシーの保護と遅延の大幅な短縮を同時に実現できる。この環境は、人間の介入なしに個人ファイルの整理やコードのデバッグといった複雑なワークフローを自動化する、自律型ソフトウェアプログラムであるAIエージェントの構築において極めて重要となる。
この展開を支えるため、NVIDIAはCUDAソフトウェアスタックとTensorコアを活用し、導入初日から高いパフォーマンスを保証している。開発者は現在、OllamaやUnslothといった普及しているツールを使用して、特定のタスクに合わせてこれらのモデルを微調整することが可能だ。こうしたアクセスのしやすさにより、大学生や愛好家であっても、高額なクラウドコンピューティングのサブスクリプションを契約することなく、最先端の推論システムを試行できるようになる。