Mistral AI、次世代多言語モデル「Mistral 3」を発表

Mistral AIは本日、次世代のオープンソース多言語・マルチモーダルモデル「Mistral 3」ファミリーを発表しました。このモデルは、NVIDIAのスーパーコンピューティングおよびエッジプラットフォームに最適化されています。特に注目されるのは「Mistral Large 3」で、これは「Mixture-of-Experts(MoE)」モデルとして設計されています。

MoEモデルは、すべてのトークンに対してすべてのニューロンを起動するのではなく、モデルの中で最も影響力のある部分だけを活性化させる仕組みです。これにより、効率的な処理が可能となります。従来のモデルでは、すべてのニューロンが一斉に動作するため、計算資源の消費が大きくなりがちでしたが、Mistral Large 3では必要な部分だけを動かすことで、リソースの節約が期待できます。

この新しいモデルファミリーは、さまざまな言語やモードに対応しており、幅広い用途での利用が可能です。NVIDIAのプラットフォームとの連携により、さらに高いパフォーマンスを発揮することができるでしょう。Mistral AIの取り組みは、AI技術の進化を加速させるとともに、より効率的で柔軟なAIソリューションの提供を目指しています。


出典:NVIDIA Partners With Mistral AI to Accelerate New Family of Open Models

よかったらシェアしてね!
  • URLをコピーしました!
  • URLをコピーしました!
目次