
화요일에 "AI Factories"라는 신제품을 발표했는데, 이는 대기업과 정부가 자체 데이터 센터에서 AI 시스템을 운영할 수 있도록 지원하는 제품입니다. AWS가 설명하는 바에 따르면, 고객이 전력과 데이터 센터를 제공하면 AWS가 AI 시스템을 구축하고 관리하며, 이를 다른 AWS 클라우드 서비스와 연동할 수 있습니다.
이 서비스는 데이터 주권(data sovereignty)을 중요시하거나, 데이터가 경쟁사 또는 해외 적대국에게 넘어가는 것을 원치 않아 데이터에 대한 절대적인 통제권을 원하는 기업과 정부의 요구를 충족시키기 위함입니다. 즉, 온프레미스 AI 팩토리(on-prem AI Factory)는 데이터를 모델 개발사에 전송하거나 하드웨어 자체를 공유할 필요가 없다는 의미입니다.
이 제품 이름이 익숙하게 느껴진다면 당연한 일입니다. 이는 엔비디아(Nvidia)가 GPU 칩부터 네트워킹 기술까지, AI 구동에 필요한 모든 도구들을 집약해 놓은 하드웨어 시스템에 붙인 이름이기 때문입니다. 이번 AWS AI Factory는 실제로 엔비디아와의 협력을 통해 탄생했습니다.
양사는 공통적으로 다음과 같이 언급했습니다.
이 경우, AWS Factory는 AWS와 엔비디아의 기술을 결합하여 사용하게 됩니다. 해당 시스템을 배포하는 기업들은 엔비디아의 최신 Blackwell GPU나 아마존의 새로운 Trainium3 칩 중 선택할 수 있습니다. 또한 AWS 자체 네트워킹, 스토리지, 데이터베이스, 보안 기능을 활용하며, AI 모델 선택 및 관리 서비스인 Amazon Bedrock과 모델 구축 및 훈련 도구인 AWS SageMaker AI를 연동할 수 있습니다.
흥미롭게도 AWS가 유일하게 엔비디아 AI Factories를 설치하는 거대 클라우드 제공업체는 아닙니다. 마이크로소프트는 지난 10월, OpenAI 워크로드를 구동하기 위해 자체 글로벌 데이터 센터에 도입하는 여러 AI Factory 중 첫 번째 사례를 선보였습니다. 마이크로소프트는 당시 이러한 최고 사양 머신들이 프라이빗 클라우드 환경에서도 사용 가능하다고 명시적으로 밝히지 않았습니다. 대신, 회사는 새로운 "AI 슈퍼팩토리(AI Superfactories)"—위스콘신과 조지아에 건설 중인 최첨단 데이터 센터를 의미—를 구축하고 연결하는 데 엔비디아 AI Factory 데이터 센터 기술을 활용하고 있음을 강조했습니다.
마이크로소프트는 또한 지난달 데이터 주권 문제를 해결하기 위해 현지 국가에 건설될 데이터 센터와 클라우드 서비스들을 구체적으로 설명하기도 했습니다. 공정하게 평가하자면, 그들의 선택지에는 고객 현장에 직접 설치할 수 있는 마이크로소프트 자체 관리형 하드웨어인 "Azure Local"도 포함됩니다.
하지만 인공지능(AI) 덕분에 가장 큰 클라우드 제공업체들이 마치 시간이 2009년으로 돌아간 것처럼 기업 전용 데이터 센터와 하이브리드 클라우드에 막대한 투자를 하도록 유도되고 있다는 점은 다소 아이러니합니다.
[출처:] https://techcrunch.com/2025/12/02/amazon-challenges-competitors-with-on-premises-nvidia-ai-factories