• 아마존, 인상적인 새 AI 칩 출시 및 엔비디아 친화적 로드맵 예고

    오랫동안 자체 AI 트레이닝 칩을 개발해 온 Amazon Web Services(AWS)가 인상적인 사양을 갖춘 새로운 버전인 Trainium3를 공개했습니다.

    이번 클라우드 제공업체는 지난 화요일 AWS re:Invent 2025에서 발표와 함께 AI 트레이닝 제품 로드맵의 차기작인 Trainium4에 대한 예고도 했습니다. Trainium4는 현재 개발 단계에 있으며, Nvidia 칩과 연동하여 작동할 수 있을 것으로 기대됩니다.

    AWS는 이 연례 기술 컨퍼런스를 계기로 자체 최첨단 3나노미터 Trainium3 칩과 자체 네트워킹 기술을 결합한 ‘Trainium3 UltraServer’를 공식 출시했습니다. 예상대로, AWS에 따르면 3세대 칩과 시스템은 이전 세대 대비 AI 학습 및 추론(inference) 성능에서 큰 폭의 향상을 제공합니다.

    AWS는 해당 시스템이 단순 학습용을 넘어 AI 애플리케이션을 최대 수요에 맞춰 제공하는 목적에서도 4배 이상 빠르고 메모리가 4배 더 많다고 밝혔습니다. 또한 수천 개의 UltraServer를 연결하여 이전 세대 대비 10배 많은, 최대 100만 개의 Trainium3 칩을 하나의 애플리케이션에 제공할 수 있습니다. 회사에 따르면, 각 UltraServer는 144개의 칩을 수용할 수 있습니다.

    무엇보다 주목할 점은, AWS가 이 칩과 시스템이 이전 세대보다 에너지 효율이 40% 더 높다는 것입니다. 전 세계가 천문학적인 기가와트(gigawatts)의 전력을 사용하는 초대형 데이터 센터 건설 경쟁을 벌이는 가운데, 데이터센터 거인 AWS는 더 많은 전력을 소모하는 대신 효율적인 시스템을 구축하는 데 주력하고 있습니다.

    이는 명백히 AWS의 사업적 이해관계에 부합하는 방향입니다. 하지만 늘 비용 효율성을 중시하는 아마존 특유의 방식으로, AWS는 이러한 시스템이 AI 클라우드 고객들의 비용 절감에도 기여할 것이라고 약속했습니다.

    AWS는 이미 고객사인 Anthropic(아마존의 투자사이기도 함), 일본의 LLM Karakuri, SplashMusic, Decart 등의 고객들이 3세대 칩과 시스템을 활용하여 이미 추론 비용을 크게 절감했다고 언급했습니다.

    AWS는 또한 현재 개발 중인 차기 칩 Trainium4의 로드맵도 제시했습니다. AWS는 Trainium4가 성능의 또 다른 큰 도약을 제공할 뿐만 아니라, Nvidia의 NVLink Fusion 초고속 칩 상호 연결 기술을 지원할 것이라고 약속했습니다.

    이는 AWS Trainium4 기반 시스템이 아마존 자체 개발의 저비용 서버 랙 기술을 사용하면서도, Nvidia GPU와 완벽하게 상호 운용되며 성능을 확장할 수 있음을 의미합니다.

    한편, Nvidia의 CUDA(Compute Unified Device Architecture)가 현재 모든 주요 AI 애플리케이션이 지원하는 사실상의 표준이 된 점 또한 주목할 만합니다. Trainium4 기반 시스템은 Nvidia GPU를 염두에 두고 개발된 대규모 AI 애플리케이션들을 아마존 클라우드로 유치하는 데 더 쉬운 발판을 제공할 수 있습니다.

    다만 Amazon은 Trainium4의 구체적인 출시 시점은 밝히지 않았습니다. 만약 과거의 출시 일정에 근거한다면, 다음 연도 컨퍼런스에서 Trainium4에 대한 더 많은 정보를 접할 수 있을 것으로 예상됩니다.

    [출처:] https://techcrunch.com/2025/12/02/amazon-releases-an-impressive-new-ai-chip-and-teases-a-nvidia-friendly-roadmap