AI 랙 무게 증가로 데이터 센터 재설계 불가피
AI 인프라의 미래는 액체 냉각, 증가하는 랙 밀도, 칩 제조사와 데이터 센터 운영자 간의 협력으로 정의될 것입니다. Nvidia, 슈나이더 일렉트릭, 스웨덴의 EcoDataCentre의 고위 임원들이 이번 주 산업 포럼에서 이와 같은 전망을 제시했습니다.
Nvidia의 데이터 센터 준비 책임자인 블라디미르 프라다노비치는 슈나이더 일렉트릭 혁신 서밋에서 AI 플랫폼의 차세대가 데이터 센터의 전력 밀도를 전례 없는 수준으로 끌어올릴 것이라고 밝혔습니다. 그는 2027년까지 랙당 1메가와트에 도달할 것으로 예상한다고 덧붙였습니다.
이러한 성능의 급격한 상승은 심각한 엔지니어링 및 물류적 도전을 수반합니다. 액체 냉각 GB200 랙은 비어 있을 때 약 1.6톤이며, 냉각제와 함께 장착되면 2톤 이상으로 증가합니다. 이러한 하드웨어의 운송은 맞춤형 화물 솔루션을 필요로 합니다.
EcoDataCentre는 고성능 컴퓨팅을 위한 유럽의 몇 안 되는 목적 중심 운영자로 자리 잡고 있습니다. 이 회사는 교차 적층 목재로 데이터 센터 구조를 구축하여 탄소 배출을 크게 줄였습니다. 또한, 백업 발전기에 하이드로트리트 식물성 오일을 사용하고 자본 지출의 절반 이상을 지역 공급업체에 투자합니다.
Schneider Electric은 AI 붐이 데이터 센터 설계 철학의 변화를 이끌고 있다고 강조했습니다. 전력 분배도 진화하고 있으며, Nvidia와 그 파트너들은 800볼트 직류 시스템을 개발하고 있습니다. 이는 구리 케이블의 부피를 줄이고 효율성을 높입니다.
경제적 논리는 명확합니다. 4,000-GPU 클러스터의 단 하루의 다운타임은 약 30만 달러의 손실을 초래할 수 있습니다. Nvidia는 AI 공장을 최적화하기 위해 대형 언어 모델 기법을 사용하고 있습니다.