Google、次世代AIアシスタント「Project Astra」のプレビュー版を公開

出典:Project Astra – Google DeepMind

Googleは、次世代のAIアシスタント「Project Astra」の最新プレビューを公開しました。

このプロジェクトは、AI技術の限界を押し広げる研究プロトタイプとして、Google I/Oで初めて発表されました。

あわせて読みたい
「Google I/O 2024」開催:AI関係の発表が充実 引用元:Google I/O 2024 2024年5月14日開催の開発者向け会議「Google I/O 2024」で、GoogleはAI関連の新機能を次々と発表しました。 https://www.youtube.com/watch?v=...

現在、米国と英国の一部のテスターによって試験運用されており、まもなくより広い範囲でテストプログラムが拡大される予定です。

「Project Astra」は、Google Gemini 2.0を基盤とし、自然な対話、マルチモーダルな理解、ツール統合、そしてユーザー中心の記憶能力を備えた、未来的なAIアシスタントです。

あわせて読みたい
Google、次世代AIモデル「Gemini 2.0」をリリース AIエージェント時代の幕開け Googleは、次世代のマルチモーダルAIモデル「Gemini 2.0」を発表しました。 このモデルは、テキスト、画像、音声、ビデオ、コードといった多様な形式のデータを統合的に処理できる能力を持つだけでなく、AIアシスタント「Project Astra」や、より高度なAIエージェントの実現に向けた重要な基盤となります。

特に、Google検索やGoogleレンズ、Googleマップと連携することで、日常生活での幅広い用途に対応できる点が注目されています。

以下がGoogleから公開されたプレビュー版で、Project Astraの助けを借りてロンドンを探検する様子です。

このアシスタントの特徴の一つは、「記憶能力」の向上です。

「Project Astra」は、最大10分間の会話を記憶できるほか、過去の対話内容も保持することで、ユーザーごとの個別ニーズに応じた体験を提供します。

また、会話の遅延をほぼ人間の会話レベルに抑える「ストリーミング機能」も搭載。

これにより、自然でスムーズな対話が可能となっています。

さらに、「Project Astra」は多言語対応が強化され、アクセントや珍しい単語への理解力が向上しました。

この進化により、英語以外の言語や混在した言語の使用がスムーズに行えます。

また、カメラや音声を通じて周囲の状況をリアルタイムで認識することで、ユーザーに対してより直感的で便利なアシストを提供します。

以下もGoogleから公開されたプレビューで、テスターのJoshがProject Astraの助けを借りて 1 週間を過ごす様子です。

このAIアシスタントは、スマートフォンやプロトタイプのARグラスで利用できるよう設計されており、デバイスを切り替えながらもシームレスに使い続けることが可能です。

特に、ARグラスを活用することで、ユーザーの視界に直接情報を表示する「没入型体験」が実現します。

Googleはまた、このような高度なAI技術がもたらす責任についても言及。

安全性と倫理的配慮を重視し、テスト運用から得られるフィードバックをもとに、ユーザーにとって信頼性の高い体験を提供することを目指しています。

現在、「Project Astra」を体験するための「信頼できるテスター」の募集が行われており、将来的にはさらに多くのGoogle製品やプラットフォームへの統合が予定されています。

Googleの取り組みは、AI技術が生活をどう変えるかを再定義する可能性を示しています。


出典:Project Astra | Exploring the future capabilities of a universal AI assistant – YouTube
出典:Google introduces Gemini 2.0: A new AI model for the agentic era
出典:Project Astra – Google DeepMind

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!
目次