ニュース
ネット接続なしにスマホで高速に動く賢いAI「Gemma 3n」
2025年5月23日 11:12
Googleは20日(米国時間)、スマートフォンのデバイス上で高速に動くマルチモーダルAI「Gemma 3n」の早期プレビューを発表した。
Qualcomm、MediaTek、Samsungといったプロセッサ開発企業と共同で開発し、デバイス上で超高速に動くマルチモーダルAIとして最適化を図った初のモデルとなる。次世代の「Gemini Nano」にも採用され、2025年後半に提供開始する予定。
Google DeepMindの新技術である「Per-Layer Embeddings(レイヤーごとの埋め込み:PLE)」を活用することでメモリの使用量を大幅に削減。さらに、KVC共有、高度なアクティベーション量子化などによりメモリ使用量を抑えた。
これらの技術により、生のパラメータ数は5Bおよび8Bだが、メモリオーバーヘッドを2Bと4Bモデルと同等レベルに抑え、2GBまたは3GBの動的メモリフットプリントで動作させられるようにした。Gemma 3 4Bと比較して、モバイルデバイス上で約1.5倍の速さで応答を開始できる。
ローカルでAIを実行することにより、インターネット接続不要で、ユーザーのプライバシーを尊重しつつAIの機能を実行できる。また、マルチモーダルモデルであるため、音声、テキスト、画像、動画を理解して処理できるという。音声機能により、高品質な文字起こしや翻訳が可能。さらに複数のモダリティをまたいだ入力も対応する予定。
多言語対応能力も向上し、特に日本語、ドイツ語、韓国語、スペイン語、フランス語を強化。多言語ベンチマーク「MWT24++(ChrF)」で50.1%という高性能を実現した。
4Bのアクティブメモリフットプリントを持つモデルでは、MatFormerトレーニングによる2Bアクティブメモリフットプリントのサブモデルを備える。別個のモデルをホストすることなく、性能と品質を動的にトレードオフできる柔軟性が得られるようにした。
さらに、4Bモデルから動的にサブモデルを作成し、特定のユースケースとそれに伴う品質とレイテンシのトレードオフに最適なモデルを作成できる「ミックスアンドマッチ」機能を導入したという。この研究の詳細は後日公開する。