
NVIDIA Blackwell、InferenceMAXベンチマークで新基準を設定
AIが単純な回答から複雑な推論へと進化する中で、推論に対する需要とその経済的重要性が急速に増加している。
新たに導入された独立したInferenceMAX v1ベンチマークは、現実世界のシナリオ全体でのコンピューティングの総コストを初めて測定するものである。NVIDIA Blackwellプラットフォームは、これらのベンチマークで卓越した性能と効率性を示した。
NVIDIA GB200 NVL72システムへの500万ドルの投資は、7500万ドルのトークン収益を生み出すことができ、15倍の投資収益率を示し、推論の新しい経済学を強調している。
InferenceMAX v1は、主要なプラットフォームで人気のモデルを実行し、広範なユースケースの性能を測定し、誰でも検証可能な結果を発表する。このベンチマークは、現代のAIにおける効率性と経済性の重要性を強調している。
NVIDIAは、OpenAI、Meta、DeepSeek AIと協力して、最新のモデルを世界最大のAI推論インフラに最適化し、共有の革新を通じてすべての人の進歩を加速するオープンエコシステムへの広範なコミットメントを反映している。
ハードウェアとソフトウェアの共同設計最適化を通じて、NVIDIAは性能を継続的に向上させている。TensorRT LLM v1.0のリリースにより、大規模AIモデルの速度と応答性が大幅に向上した。
InferenceMAXは、パレートフロンティアを使用して性能をマッピングし、NVIDIA Blackwellがコスト、エネルギー効率、スループット、応答性などの生産優先事項をどのようにバランスさせているかを示している。
NVIDIAのThink SMARTフレームワークは、企業がAIファクトリーへの移行をナビゲートするのを支援し、NVIDIAのフルスタック推論プラットフォームが実際のROIを提供する方法を強調している。