
Googleは、スマートフォンのカメラや画面共有を使ってAIアシスタントのGeminiとリアルタイムで会話ができる新機能「Gemini Live」の導入を開始しました。この次世代AIアシスタント「Project Astra」は、Android向けGemini Advancedのユーザーを対象に、まずはPixel 9およびSamsung Galaxy S25で利用が可能になります。

Gemini Liveでは、スマートフォンのカメラで映した実際の光景をもとに、AIと自然な会話が可能です。例えば、ユーザーが着ている服と自宅のクローゼットをカメラで映すだけで、Geminiが即座にファッションやスタイルを提案してくれます。このように、Gemini Liveは従来のAIアシスタントよりも生活に密着したリアルタイムなコミュニケーションを実現しています。
具体的な活用方法として、整理整頓のアドバイスを受けるために散らかった棚や引き出しを撮影したり、創作活動でアイデアが浮かばないときにお気に入りの写真を画面共有してアイデアを求めたりすることができます。
また、家具や家電製品のトラブル発生時には、問題箇所をカメラで見せて迅速な修理アドバイスを得ることも可能です。
さらに、個人向けショッピング支援機能も特徴的です。オンラインショップを閲覧中に画面共有すれば、商品の比較やスタイルの提案をリアルタイムで受けられます。
画面上の商品だけでなく、自分の服装や持ち物と合わせたスタイルアドバイスも簡単に受け取ることができ、ユーザーの買い物体験をよりパーソナライズされたものにします。
このGemini Live機能は45種類以上の言語で利用可能であり、今後さらに対象端末の拡大を予定しています。Googleは「Project Astra」を通じて、日常生活をサポートする次世代AIアシスタントの普及を目指しています。