from AINEWS
NVIDIAは、エージェント型AIのスケーリングの課題に対処するため、RubinアーキテクチャにInference Context Memory Storage(ICMS)プラットフォームを導入した。AIメモリ専用に設計されたこの新しいストレージ層は、基礎モデルが数兆のパラメータへとスケールするにつれて増大する履歴記憶の計算コストを処理することを目的としている。
既存の階層に専用レイヤーを導入することで、ICMSプラットフォームは新たな階層を確立し、エージェントが高価なGPUメモリーを占有することなく大量の履歴を保持できるようにすることで、エージェント型AIのスケーリングを後押しする。
この技術革新は、AIのためのコンピューティングスタックとストレージ全体に革命を起こそうとしている。
*Disclamer:本キュレーションはAINEWSからピックおよび自動生成されました。正確な内容や詳細を知りたい方はリンク先の元コンテンツをご覧ください。
Curated. ニュースレター