• 엔비디아, DGX Cloud에서 철수 — AWS 및 Azure와의 경쟁 시도 중단

    DGX Cloud는 내부 사용으로 전환되고, Nvidia는 Lepton을 통해 파트너 인프라 전반의 AI 워크로드를 조정하는 데 주력하고 있다.

    article image

    엔비디아의 DGX Cloud는 한때 '기업 직접용(direct-to-enterprise)' AI 클라우드로 포지셔닝되었으나, 최근에는 회사 자체 외부 전략에서는 점차 주변부로 밀려나고 있다. The Information이 전하는 내부 관계자에 따르면, 이 GPU 거대 기업은 이제 DGX Cloud의 용량 대부분을 고객 대상 제품으로 홍보하기보다는 자체적인 내부 연구 목적으로 활용하고 있다.

    이는 미묘한 변화이지만, 엔비디아는 2026 회계연도 2분기 재무 실적을 발표하며, 이전 분기들에서 언급했던 수십억 달러 규모의 클라우드 지출 약정(commitments)을 더 이상 DGX Cloud와 연결 짓지 않았다. 해당 서비스는 여전히 매출 항목에 기재되어 있지만, 역할은 명확히 사내 인프라 중심으로 이동한 상태다. 즉, DGX는 여전히 활발하게 운영되고 있으나, 마이크로소프트 애저(Microsoft Azure)나 AWS 같은 거대 경쟁사들과 정면으로 시장을 겨냥할 목적은 아니라는 해석이 나온다.

    DGX Cloud는 2023년, H100 인스턴스 개당 월 36,999달러라는 프리미엄 가격을 붙여 출시되었다. 당시의 공급 부족 상황에서는 그 가격이 어느 정도 납득이 되었으나, 오늘날에는 그렇지 않다. AWS가 H100과 A100의 가격을 최대 45%까지 인하하면서, 엔비디아의 직접 서비스 가격을 밑돌리고 하이퍼스케일러 임대(hyperscaler rentals)를 대부분의 고객에게 가장 자연스러운 선택지로 만들었다. 가용성이 개선되면서, DGX Cloud가 갖고 있던 '희소성 회피 수단'으로서의 역할은 사실상 소멸한 셈이다.

    엔비디아의 OpenAI에 대한 1,000억 달러 투자 계획은 어려울 수 있음

    OpenAI가 데이터센터 자금을 확보하지 못해 하드웨어 통제권을 장악

    대신 엔비디아는 올해 초에 출시된 GPU 렌탈 마켓플레이스인 Lepton에 초점을 맞추고 있다. 이는 DGX Cloud와 방식이 다르다. DGX Cloud가 엔비디아가 CoreWeave 같은 노클라우드(neocloud) 업체로부터 GPU를 빌려 고객에게 재임대하는 방식이었다면, Lepton은 '트래픽 컨트롤러' 역할을 수행한다. Lepton은 AWS와 Azure 같은 파트너 제공업체들(이들 역시 자체 GPU 자원을 보유하고 있음에도 불구하고)을 포함하여 워크로드를 분배(라우팅)한다. 이로써 엔비디아는 경쟁사라기보다는 클라우드 AI 생태계의 '어그리게이터(aggregator)'로 변모한 것이다.

    엔비디아가 얻는 핵심 이점은 '레버리지'다. Lepton을 GPU 마켓플레이스로 포지셔닝함으로써, 더 작은 공급업체들을 자사의 생태계에 계속 연결된 상태로 유지할 수 있다. 궁극적으로 회사는 클라우드 자체를 소유할 필요가 없다. 오직 '스택'과 그에 연결된 '수요 흐름(demand funnel)'만 장악하면 되는 것이다. 고객들이 DGX Cloud를 사용하지 않더라도, 그들은 여전히 엔비디아를 통해 비용을 지불하게 된다.

    개발자 관점에서 볼 때, DGX Cloud에서 Lepton으로의 전환은 기존에 사용하던 클라우드를 통해 더 접근성이 좋고 경쟁력 있는 가격으로 GPU 용량을 확보할 수 있음을 의미한다. 반면 엔비디아에게는 채널 충돌을 줄이고, 전 세계 GPU 워크로드 흐름에 대한 통제력을 더욱 강력하게 확보하는 효과를 가져다준다.

    최신 뉴스, 분석 및 리뷰를 피드에서 받아보려면 Google News에서 Tom's Hardware를 팔로우하세요. 팔로우 버튼을 클릭했는지 확인하세요.

    [출처:] https://www.tomshardware.com/tech-industry/nvidia-steps-back-from-dgx-cloud