• 중국 AI 개발업체들, Nvidia의 Rubin GPU 클라우드 임대 탐색 — 비용, 복잡성, 규제 장벽이 배포에 한계 부과 가능성

    새 규정 하에서는 가능한가?

    article image

    중국 기반 AI 하드웨어 개발사들은 자체 설계한 가속기로 눈부신 발전을 이루고 있습니다. 하지만 중국의 최고 수준 AI 개발사들은 자국 하드웨어만으로는 단기적으로 미국 선두 주자들과의 격차를 좁히기 어렵다는 현실을 점점 더 인정하고 있으며, 이는 고성능 모델 개발에 큰 제약 요인으로 작용하고 있습니다. 이에 따라 월스트리트 저널(Wall Street Journal)에 따르면, 중국 AI 개발사들은 미국 경쟁사들과의 경쟁 우위를 유지하기 위해 엔비디아(Nvidia)가 곧 출시할 루빈(Rubin) GPU를 클라우드를 통해 임대하는 방법을 모색하고 있습니다.

    엔비디아는 지난 1월 AI용 루빈 데이터센터 플랫폼을 소개하면서 공식적으로 미국 고객사만을 명시하고 중국 고객사는 언급하지 않았습니다. 이러한 방식은 최근 분기에도 이어져 왔는데, 이는 미국의 수출 규제 준수를 약속하는 동시에, 중국 시장 개방 여부에 대해 투자자들에게 어떤 신호를 보내지 않겠다는 회사의 의도가 반영된 것입니다. 이 메시지는 중국 기업들에게도 전달되었고, 중국 기업들은 미국 경쟁사들보다 뒤처지는 사태를 막기 위해 엔비디아의 최첨단 프로세서를 원격으로 확보할 방안을 찾기 시작했습니다.

    보고서에 따르면, 중국 AI 기업들은 중국 외부에 위치한 데이터센터, 특히 동남아시아와 중동에 호스팅된 NVL144 GR200 및 기타 엔비디아 루빈 기반 시스템의 접근권을 협상하고 있습니다. 이번 주 중반까지는 이러한 조치들이 대체로 합법적인 것으로 간주되어 왔습니다. 그러나 여기에는 본질적인 제약들이 따릅니다. 즉, 컴퓨팅 파워는 소유가 아닌 임대 형태이며, 용량은 전용되는 것이 아니라 공유되는 것이고, 심지어 최악의 경우에도 배치 일정은 내부 스케줄이 아닌 제3자 운영사에 의존해야 한다는 점입니다.

    엔비디아가 칩을 시장에 공급하는 데 난항을 겪자 중국 자체 실리콘 공급업체들이 주목받다

    중국 기업들, 블랙 마켓에서 H200 칩을 조달하는 방안 검토

    article image

    원격 하드웨어로 최첨단 AI 모델을 학습시키는 것이 얼마나 까다로운지 의아해할 필요가 없습니다. 원격 클라우드 데이터센터에서 루빈을 임대하는 것과 자체 시설에 배포하는 것 사이에는 엄청난 차이가 존재하기 때문입니다. 미국 하이퍼스케일러들은 루빈 가속기를 대규모로 통합하고, 자체 소프트웨어 스택을 신규 하드웨어에 긴밀하게 맞추며, 장기간의 훈련 작업을 위해 거대한 GPU 클러스터를 확보할 수 있습니다. 반면, 루빈 용량 임대를 계획하는 중국 개발사들은 제한적인 할당량, 국가 간 네트워크 지연 시간(cross-border latency), 시스템 커스터마이징의 자유도가 낮고, 때로는 대기열에 직면하는 등 여러 어려움을 겪습니다. 만약 충분한 시스템을 임대할 수 있다면—현재 수십만 개의 블랙웰(Blackwell) GPU가 운영되고 있는 미국 클라우드 데이터센터가 있는 바—큰 어려움 없이 모델 훈련이 가능할 것입니다. 하지만 적절한 클라우드를 제때 확보하지 못한다면, 프로젝트당 AI 가속기 수급이 줄어들고, 심지어 대규모 훈련 작업 자체가 불가능해져 모델 크기, 실험 주기의 속도, 반복 속도가 직접적으로 제한될 수 있습니다.

    한편, 여러 종류의 엔비디아 GPU(A100, H100, H800, H20)를 조합하여 최첨단 모델을 훈련했던 중국 개발사들에게는 복잡하고 비효율적인 훈련 과정이 이미 잘 알려져 있습니다. 이들이 공식적으로 블랙웰을 조달하지 못하자 클라우드를 통해 임대하게 되었는데, 내부 관계자들에 따르면 이 경험은 비용 부담이 크고 운영적으로 비효율적이었다고 합니다(WSJ). 그 결과, 중국 개발사들은 이미 비효율성을 극복하는 노하우를 갖추게 되었습니다.

    차세대 최첨단 모델과 루빈 GPU가 등장하면서 상황은 더욱 복잡해질 전망입니다. 모델 규모가 커질수록 대규모의 균질한 GPU 클러스터에 중단 없이 접근할 수 있는 것이 중요해집니다. 현재의 제한된 자원 환경 속에서, 이는 큰 도전입니다.

    한편, Google News는 Google News를 통해 사용자를 돕습니다.


    (참고: 요청하신 텍스트의 맥락에 맞춰 원본의 정보는 유지하면서 흐름을 개선했습니다. 마지막 문장은 원문 기사에 포함된 맥락을 유지하기 위해 삭제하거나 수정하는 것이 좋을 것 같습니다.)

    [출처:] https://www.tomshardware.com/tech-industry/artificial-intelligence/chinese-ai-developers-explore-renting-nvidias-rubin-gpu-in-the-cloud-cost-complexity-and-regulatory-hurdles-could-limit-deployments