大規模言語モデル (LLM)
Gemma 4
読み方:じぇま ふぉー
Gemma 4 とは
Gemma 4(ジェマ・フォー)は、Googleが2026年4月に発表したオープンかつ商用利用可能なマルチモーダル対応のAIモデルファミリーです。同社の最上位モデルである「Gemini 3」の技術基盤を活用して開発されました。 最大のトピックは、これまでのGemmaシリーズとは異なり、開発者コミュニティで最も汎用的に使われる「Apache 2.0 ライセンス」で完全公開された点です。これにより、世界中の開発者が制約を気にせずに自社の商用プロダクトに組み込むことが可能になりました。
主な特徴と機能
- 「小さな巨人」の推論能力:パラメータサイズを抑えながらも、一回り大きな他社モデルに匹敵する知性を持つよう設計(パラメータあたりの知性の最適化)されています。
- フル・マルチモーダル対応:全モデルで標準的にテキストと画像入力に対応し、より小型のエッジ向けモデルでは音声処理も可能です。
- エージェント対応:関数呼び出し(Function Calling)に標準対応しており、AIエージェントの処理ワークフローに組み込みやすい仕様です。
- 256Kコンテキスト:最大25万6千トークンのコンテキストウィンドウを持ち、長大なドキュメントの読み込みにも対応します。
展開されるラインナップ
用途に応じた4つのモデルサイズが展開されています。
- Gemma 4 E2B:約2B(実効)パラメータの極小モデル。Raspberry PiやIoT機器、スマートフォン上でローカル動作します。
- Gemma 4 E4B:約4.5B(実効)パラメータのエッジデバイス最適化モデル。
- Gemma 4 26B MoE:エキスパート混合(MoE)アーキテクチャにより、推論時に約3.8Bパラメータのみを活性化し、ローカルPC等で高速かつ高精度な推論を実現します。
- Gemma 4 31B Dense:高密度なアーキテクチャで構成されており、複雑なタスクの処理やファインチューニングのベースモデルとして最高の品質を提供します。
Google Tensorを搭載したPixelシリーズをはじめとする次世代Android端末に組み込まれる「Gemini Nano 4」の中核技術としても、Gemma 4のアーキテクチャが採用されています。