エージェンティブ推論の進化に伴い、NvidiaがAIコンピューティングを支配すると予想される
概要
AIハードウェアの状況は、モデルトレーニングから、AIシステムが自律的に推論、計画、および複数ステップのタスクを実行するエージェンティブ推論へと移行しています。Nvidiaは、これらのワークロードに対して大幅なパフォーマンス向上とコスト削減を約束するBlackwell Ultraプラットフォームにより、この新段階を支配する態勢を整えています。エージェンティブAIは、コンテキストを維持し、複雑な論理を推論することで、従来のステートレスなやり取りとは異なり、永続的なコンテキストメモリを備えた本番規模のアーキテクチャを必要とします。この進化は、チップ、メモリ、ソフトウェアを統合した共同設計ハードウェアの必要性を推進しています。Nvidiaの戦略は、VAST Dataなどのパートナーシップや、DigitalOceanなどのエンタープライズクラウドプロバイダーによる採用に明らかです。クラウドプロバイダーにとって、汎用GPUクラスターはもはや十分ではなく、特殊化された推論インフラストラクチャが必要とされています。分散型GPUネットワークは、トレーニングや基本的な推論の代替手段を提供しますが、エージェンティブワークロードは、緊密に統合された低遅延アーキテクチャを要求するため、分散ネットワークでの実装が困難です。AIにおける課題は、大規模モデルの構築から、スマートエージェントのスケーラブルな展開へと移行しており、NvidiaのBlackwell Ultraプラットフォームはこの問題に対処するように設計されています。
(出典:Crypto Briefing)