갑자기, 영화 '백 투 더 퓨처'에 나오는 1.21 기가와트가 더 이상 그렇게 인상적이지 않다.
거대 기술 기업인 OpenAI와 Nvidia가 중대한 파트너십을 발표하며, 이를 통해 총 10 기가와트(GW) 규모의 AI 데이터센터 구축과 1,000억 달러 규모의 투자가 이루어질 예정입니다.
OpenAI는 Nvidia를 '선호 전략 컴퓨팅 및 네트워킹 파트너'로 삼아 다수의 데이터센터를 구축하겠다고 약속했으며, 첫 번째 데이터센터는 2026년 하반기 가동을 목표로 합니다. 이 협력에 따라 OpenAI는 데이터센터들의 총 결합 전력 예산이 '최소' 10 GW에 도달할 때까지 시설 건설에 집중할 계획입니다. 한편, Nvidia는 자금 확보를 위해 대규모 재원을 투입하며, 주식 매입 등을 통해 OpenAI에 단계적으로 투자하며 상호 보완적인 관계를 구축할 것으로 예상됩니다.
특히 주목할 만한 점은 두 회사가 각자의 로드맵을 '공동 최적화(co-optimize)'하기로 합의했다는 것입니다. Nvidia의 AI 고객사들이 이미 칩 제조사의 설계 방향을 주도하는 것은 자연스러운 일이지만, 이번 발표는 OpenAI가 Nvidia의 향후 계획에 이전보다 훨씬 더 큰 영향력을 행사할 수 있음을 시사합니다.
(Nvidia의 OpenAI 투자 계획에 의문점 제기)
OpenAI, 사상 최대 민간 기술 자금 조달 라운드에서 1,100억 달러 유치 / Nvidia, 300억 달러 추가 참여
양사는 또한 이번 협력이 Microsoft, Oracle, SoftBank 등 기존 파트너사들과의 협력 관계와도 훌륭하게 시너지를 낼 것이라고 밝혔습니다. OpenAI는 이미 Microsoft의 독점 AI 파트너 자격을 가지고 있으며, Microsoft는 지난 1월 이 기술에 800억 달러를 투자하겠다고 약속한 바 있습니다.
한편, OpenAI의 샘 알트먼은 "컴퓨팅 인프라가 미래 경제의 기반이 될 것"이라고 언급했습니다. 이는 불과 2~3년 전만 해도 과장된 표현으로 여겨졌던 발언이었습니다.
OpenAI의 차세대 데이터센터에는 Nvidia의 Vera Rubin 플랫폼(그리고 추정컨대 Rubin Ultra)이 사용될 예정입니다. 이 플랫폼은 76TB의 HBM4 메모리를 탑재한 강력한 가속기 역할을 하며, 3.6 엑사플롭스(exaflops)의 FP4 추론 능력과 1.2 엑사플롭스의 FP8 학습 능력을 구현할 것으로 기대됩니다. '엑사(exa)'라는 접두어의 일상화는 기술적인 흥분과 동시에 기술적 부담감이라는 양면성을 동시에 지니고 있습니다.
Rubin GPU와 Vera CPU는 8월 말 테스트를 완료하고 현재 TSMC 시설에서 제조 단계에 들어섰습니다. Rubin Ultra는 추론에 15 엑사플롭스, 학습에 5 엑사플롭스의 FP4 연산 능력을 제공할 것으로 예상되며, 이 수치는 365TB의 HBM4e 메모리와 14 GB300 GPU를 통해 가능해집니다.
10GW라는 규모를 이해하기 쉽게 비유하자면, 현대적인 미국 원자력 발전소 원자로 하나가 약 1GW급을 담당하므로, 신규 데이터센터들이 구동하는 전력은 원자로 10개 분량에 해당하는 막대한 에너지 소비 규모입니다. 이는 상상하기 어려운 개념입니다. 이 기술적 진보는 명백한 이정표임에도 불구하고, 막대한 환경적 비용에 대한 근본적인 질문을 던지고 있습니다.
최신 뉴스, 분석 및 리뷰를 위해 구글 뉴스에서 Tom's Hardware를 팔로우하고 알림을 받아보세요. 팔로우 버튼을 클릭하는 것을 잊지 마십시오.