Llama 4
Llama 4 とは
Llama 4(ラマ・フォー)は、Meta(旧Facebook)が2025年春に発表した最新の大規模言語モデルシリーズです。Llamaシリーズとして初めて、Mixture-of-Experts(MoE:エキスパート混合)アーキテクチャとネイティブマルチモーダル機能を統合したモデルとなっています。 テキスト解説だけでなく、画像、動画、音声などの多様なデータをネイティブに処理でき、オープンなAI研究とエコシステムを牽引する中核モデルとして世界中の開発者に利用されています。
主なモデルのラインナップと特徴
Llama 4は、用途やリソースに合わせてユニークなコードネームを持つ複数サイズが提供されています。
Llama 4 Scout(軽量・長文脈モデル)
アクティブパラメータがわずか17億(1.7B)の軽量モデルながら、16のエキスパートを備えています。最大の強みは「最大1000万トークン」という桁外れの長文脈処理能力であり、単一のGPU(NVIDIA H100等)環境でも、書籍数十冊分のデータを一度に読み込んで高速に処理することができます。
Llama 4 Maverick(高効率・高性能モデル)
全体の総パラメータ数は4,000億(400B)と巨大ですが、MoEアーキテクチャと128個のエキスパートにより、1回の推論時にアクティブになるパラメータは1.7Bに抑えられています。これにより、推論にかかるコンピューティングコストを極限まで抑えながら、競合のフラッグシップモデルに匹敵する高度な論理推論やコーディングタスクをこなすことができます。
Llama 4 Behemoth(フラッグシップ)
2兆(2T)パラメータという超巨大なスケールを持つ次世代の最高峰モデルです(発表時は学習中のステータス)。STEM(科学、技術、工学、数学)分野で世界最高水準の推論能力を叩き出すべく設計されており、ScoutやMaverickの品質向上のための「教師モデル」としての役割も担っています。
オープンAI開発のトレンド
MoEの標準採用により、「軽くて速い・かつ賢い」という現代のAIモデルに求められる要件を高い水準で満たしています。オープンモデル界隈において、Llama 4はローカルでのエージェント構築やファインチューニングのベースとして圧倒的なシェアと支持を獲得しています。