
米IT大手Meta(メタ)のAI研究チームが開発した人工知能モデルが、脳の活動をどれだけ正確に予測できるかを競う国際コンテスト「Algonauts 2025」で1位を獲得しました。
このコンテストは、人間が映画やドラマなどを観ているときの脳の反応を、AIがどのくらい正しく予測できるかを競うものです。Metaの研究チームが開発した「TRIBE(トライブ)」というモデルは、文章(テキスト)、音声(オーディオ)、映像(ビデオ)という3つの情報を組み合わせて、人が映像を視聴したときの脳活動を予測する仕組みになっています。
TRIBEの特徴は、Metaがこれまでに開発してきた「Llama 3.2(テキスト理解)」「Wav2Vec-BERT(音声理解)」「V-JEPA 2(映像理解)」という3つのAI技術をひとつに統合した点です。これらの技術を活用することで、脳が映像を視聴した際に、どのように反応するかを高い精度で予測できるようになりました。
実際のテストでは、人気ドラマ『フレンズ』や複数の映画を視聴した際の脳の反応を測定したデータを使い、AIがその反応をどれだけ正しく予測できるかを比較しました。その結果、MetaのTRIBEモデルが他の60以上の参加チームを抑えて最も高い精度を記録し、優勝に輝きました。
MetaはこのAIモデルのコードを研究者向けに公開しており、今後、脳の働きを解明する研究の発展が期待されています。