AI 뉴스

뉴스 · · 12:17 · auroraloom

NVIDIA Blackwell, InferenceMAX 벤치마크에서 성능 및 효율성 입증

AI가 단순한 답변에서 복잡한 추론으로 전환됨에 따라 추론에 대한 수요와 그 경제적 중요성이 급증하고 있다.

새로운 독립적 InferenceMAX v1 벤치마크는 현실 세계 시나리오 전반에서 컴퓨팅의 총 비용을 처음으로 측정한다. NVIDIA Blackwell 플랫폼은 이 벤치마크에서 뛰어난 성능과 효율성을 입증했다.

NVIDIA GB200 NVL72 시스템에 대한 500만 달러의 투자는 7,500만 달러의 토큰 수익을 창출할 수 있다. 이는 15배의 투자 수익률을 나타내며, 추론의 새로운 경제학을 보여준다.

InferenceMAX v1은 다양한 플랫폼에서 인기 모델을 실행하며, 성능을 측정하고 누구나 검증할 수 있는 결과를 발표한다. 이는 AI의 경제성과 효율성을 강조하는 최신 벤치마크다.

NVIDIA는 OpenAI, Meta, DeepSeek AI와의 오픈소스 협력을 통해 최신 모델을 세계 최대 AI 추론 인프라에 최적화하고 있다. 이러한 노력은 공유 혁신을 통해 모든 사람의 발전을 가속화하는 개방형 생태계에 대한 광범위한 약속을 반영한다.

NVIDIA의 하드웨어 및 소프트웨어 공동 설계 최적화를 통해 성능을 지속적으로 향상시키고 있다. TensorRT LLM v1.0의 출시로 대형 AI 모델의 속도와 응답성이 크게 향상되었다.

InferenceMAX는 데이터 센터 처리량과 응답성 간의 최적의 균형을 보여주는 파레토 프론티어를 사용하여 성능을 매핑한다. 이는 NVIDIA Blackwell이 생산 우선순위를 균형 있게 조정하는 방법을 반영한다.

NVIDIA의 Think SMART 프레임워크는 기업이 AI 공장으로의 전환을 탐색하는 데 도움을 주며, NVIDIA의 전체 스택 추론 플랫폼이 실질적인 ROI를 제공하는 방법을 강조한다.