
米Googleは8月14日(米国時間)、パラメータ数が2億7000万の小規模言語モデル(SLM)「Gemma 3 270M」を発表しました。同社が推進するオープンなAIモデル「Gemma 3」シリーズの一つで、特に省電力性能とマルチモーダル対応を重視したエッジデバイス向けのモデルです。
「Gemma 3 270M」は、指示に正確に応答する能力を最初から備えたコンパクトなモデルで、リソースが限定された環境での利用を想定しています。最大の特徴は優れた省電力性能で、Googleが行ったPixel 9 Proを用いた内部テストでは、25回の会話で消費したバッテリーはわずか0.75%という極めて低い数値を記録しました。
このモデルの総パラメータ数のうち、1億7000万個は25万6000語という広範な語彙に対応するための埋め込み(Embedding)層が占めており、特殊な用語や希少な単語にも対応できる設計となっています。また、残る1億個がTransformerブロックに割り当てられ、特定用途へのファインチューニング(再学習)にも適しています。
Googleは、複雑な対話用途よりも、テキスト分類やデータ抽出など、明確に定義されたタスクで最大のパフォーマンスを発揮すると説明。量子化学習済み(QAT)モデルも公開されており、性能をほぼ損なうことなくINT4精度で動作可能なため、小型のモバイル機器やオンデバイスAIへの導入を容易にしています。
すでにAdaptive MLとSK Telecomが「Gemma 3」シリーズを利用して多言語コンテンツのモデレーションを実施。大規模な汎用モデルを超える精度を達成するなど、現実的な成果を上げています。さらに、就寝前に楽しむストーリーを生成するWebアプリにも採用されるなど、創造的な用途でも実績を積んでいます。
同社は、ユーザーのプライバシーを尊重したオンデバイスAIへの需要に対応するため、「Gemma 3 270M」のような軽量で高効率なモデルの重要性が今後ますます高まると強調しています。現在、Hugging FaceやKaggleなどから自由にダウンロードでき、開発者が容易に試用およびファインチューニングできる環境も整備されています。
出典:Introducing Gemma 3 270M: The compact model for hyper-efficient AI – Google Developers Blog