Mistral AI、画期的なオープンソースモデルMixtral 8x22Bを発表(AINEWS)

from AINEWS

Mistral AIは、パフォーマンスと効率性に優れた画期的なオープンソースモデル、Mixtral 8x22Bを発表しました。スパース・ミクスチャー・オブ・エキスパート(SMoE)設計により、このモデルは1,410億個のパラメータのうち、わずか390億個しか使用しないため、推論時に他のモデルよりも大幅に高速化される。

Mixtral 8x22Bは、多言語機能、主要言語への熟達度、そして強力な数学的能力とコーディング能力を誇ります。Apache 2.0ライセンスでリリースされたこのモデルは、無制限の使用と広範な採用が可能です。

様々なベンチマークにおけるその印象的なパフォーマンスは、AI業界におけるその優位性を浮き彫りにし、開発者にとってもユーザーにとっても価値あるツールとなっている。


*Disclamer:本キュレーションはAINEWSからピックおよび自動生成されました。正確な内容や詳細を知りたい方はリンク先の元コンテンツをご覧ください。

+ キュレーション元の記事を読む