アリババ、大規模言語モデルMarco-o1を発表(AINEWS)

from AINEWS

アリババは、従来型の問題解決タスクとオープンエンドな問題解決タスクの両方に対応するよう設計された大規模言語モデル(LLM)、Marco-o1を発表した。アリババのMarcoPoloチームによって開発されたこのモデルは、Chain-of-Thought(CoT)微調整、モンテカルロ木探索(MCTS)、新しいリフレクションメカニズムなどの高度な技術を取り入れ、様々なドメインにおける問題解決能力を強化します。

Marco-o1は、多言語アプリケーションにおいて、翻訳タスクの顕著な精度向上という素晴らしい結果を示している。その革新的な特徴の一つは、MCTSフレームワークの中で様々なアクションの粒度を実装し、異なる詳細レベルでの推論パスの探索を可能にしていることである。

開発チームは、Marco-o1モデルと関連データセットをアリババのGitHubリポジトリを通じて研究コミュニティに公開し、報酬モデルと強化学習技術を組み込んでさらに改良を加える予定です。このリリースは、AI能力の向上に対する継続的なコミットメントを意味する。


*Disclamer:本キュレーションはAINEWSからピックおよび自動生成されました。正確な内容や詳細を知りたい方はリンク先の元コンテンツをご覧ください。

+ キュレーション元の記事を読む