• 마이크로소프트, AI 추론용 강력한 신규 칩 공개

    Microsoft는 최신 칩인 Maia 200의 출시를 발표했으며, 이 칩은 AI 추론(Inference)에 특화된 실리콘 워크호스로 설명하고 있습니다.

    회사에 따르면, 2023년에 공개된 Maia 100을 계승하는 Maia 200은 강력한 AI 모델을 더욱 빠르고 효율적으로 구동할 수 있도록 기술적으로 강화되었다고 밝혔습니다. Maia는 1,000억 개가 넘는 트랜지스터를 탑재하여, 4비트 정밀도에서 10 페타플롭스 이상, 8비트 성능에서 약 5 페타플롭스를 제공하며, 이는 이전 모델 대비 상당한 성능 향상을 의미합니다.

    추론(Inference)이란 모델을 구동하는 컴퓨팅 프로세스를 의미하며, 모델 학습(Training)에 필요한 컴퓨팅 과정과는 구별됩니다. AI 산업이 성숙해짐에 따라 추론 비용은 전반적인 운영 비용에서 점점 더 중요한 비중을 차지하게 되었으며, 이에 따라 프로세스 최적화 방안에 대한 관심이 높아지고 있습니다.

    Microsoft는 Maia 200이 이러한 최적화에 기여하여 AI 비즈니스가 운영상의 중단이나 낮은 전력 소모로 구동되도록 하는 것을 목표로 합니다. 회사는 "실질적으로, Maia 200 노드 하나만으로도 오늘날 가장 큰 규모의 모델들을 수월하게 구동할 수 있으며, 미래에 등장할 훨씬 더 큰 모델들을 위한 충분한 여력(headroom)을 갖추고 있다"고 말했습니다.

    Microsoft의 신규 칩은 거대 기술 기업들이 Nvidia에 대한 의존도를 낮추기 위해 자체 설계 칩 개발에 집중하는 산업적 추세의 일부입니다. Nvidia의 최첨단 GPU가 AI 기업 성공의 핵심 동력이 되면서 이러한 추세가 두드러지고 있습니다. 예를 들어, Google은 칩 자체로 판매하기보다 클라우를 통해 접근 가능한 컴퓨팅 자원인 텐서 처리 장치(TPU)를 보유하고 있으며, Amazon 역시 이커머스 거대 기업 자체 개발 AI 가속 칩인 Trainium을 운영하고, 최근 버전인 Trainium3를 12월에 출시했습니다. 이러한 대안들은 TPU를 활용하여 Nvidia GPU에 할당되었을 컴퓨팅 자원의 일부를 오프로드함으로써 전반적인 하드웨어 비용 절감을 돕습니다.

    Maia를 통해 Microsoft는 이러한 경쟁 대안들 사이에서 입지를 다지고 있습니다. 회사는 월요일 보도 자료에서 Maia가 3세대 Amazon Trainium 칩 대비 3배의 FP4 성능을 제공하며, Google의 7세대 TPU를 능가하는 FP8 성능을 구현한다고 언급했습니다.

    Microsoft는 이미 Maia를 자사의 슈퍼 인텔리전스 팀 AI 모델 구동에 활용하고 있으며, 챗봇 Copilot의 운영도 지원해왔습니다. 회사 측에 따르면, 지난 월요일 기준으로 개발자, 학계, 최첨단 AI 연구소 등 다양한 기관을 대상으로 Maia 200 소프트웨어 개발 키트(SDK)를 업무 환경에서 사용하도록 초청했습니다.

    [출처:] https://techcrunch.com/2026/01/26/microsoft-announces-powerful-new-chip-for-ai-inference