X86은 여전히 살아있다. 의심하는 사람이 있었나?

인텔과 구글은 목요일, 다년간의 협력 관계를 발표하며 구글이 차세대 AI 및 클라우드 인프라에 인텔 Xeon 플랫폼을 계속 사용할 것이라고 밝혔습니다. 이 플랫폼들은 인텔의 차기 Xeon CPU는 물론, 인텔과 구글이 공동 설계한 맞춤형 인프라 처리 장치(IPU)에 의존합니다. 이러한 발표가 이루어진 배경에는 AI 워크로드에 맞춰 커스텀 Arm 기반 프로세서의 채택이 가속화되는 흐름이 있습니다.
인텔의 립-부 탄(Lip-Bu Tan) CEO는 "AI를 확장하려면 가속기 이상의 것이 필요하며, 균형 잡힌 시스템이 필수적입니다. CPU와 IPU는 현대 AI 워크로드가 요구하는 성능, 효율성, 유연성을 제공하는 핵심 요소"라고 말했습니다.
현재 구글은 대규모 AI 훈련 조정, 지연 시간에 민감한 추론(inference), 범용 컴퓨팅 등 다양한 워크로드에 Intel Xeon 5 및 Intel Xeon 6 프로세서를 사용하고 있습니다. 예를 들어, 인텔의 최신 Xeon CPU는 C4 및 N4 인스턴스에 동력을 공급합니다. 비록 구글의 맞춤형 Armv9 기반 Axion 프로세서가 구글에게 더 많은 통제력과 저비용 효율성을 제공하지만, 구글의 데이터센터에서 실행되는 다수의 워크로드는 x86과의 하위 호환성 유지나 인텔 Xeon CPU가 제공하는 최대 단일 스레드 성능이 여전히 필요한 경우가 많습니다. 이러한 필요성은 앞으로도 수년간 지속될 것으로 예상되며, 이것이 양사가 파트너십을 강화한 주요 원인입니다.
구글은 Intel Xeon 플랫폼을 하이퍼스케일 데이터센터 환경에 더욱 효율적이고 적합하게 만들기 위해, 네트워킹, 스토리지, 보안 기능 등을 호스트 CPU에서 분산시키는 맞춤형 IPU를 인텔과 공동 개발할 예정입니다. 궁극적으로 인텔 Xeon 플랫폼은 x86 아키텍처가 가진 높은 단일 스레드 성능과 맞춤형 인프라 처리를 결합하여, 구글의 고도로 특화된 환경에서 경쟁력을 극대화할 것입니다.

구글의 아민 바다트(Amin Vahdat) SVP 겸 AI 인프라 최고 기술 책임자(Chief Technologist)는 "CPU와 인프라 가속 기능은 훈련 오케스트레이션부터 추론 및 배포에 이르기까지 AI 시스템의 핵심 기반으로 남아 있습니다"라고 말했습니다.
이번 발표는 하이퍼스케일 기업과 AI 플랫폼 개발사들이 Arm 명령어 세트 아키텍처(ISA) 기반의 자체 맞춤형 CPU 도입을 가속화하는 시점에 나왔습니다. 불과 일주일 전, 카운터포인트 리서치(Counterpoint Research)는 커스텀 실리콘 프로세서를 사용하는 AI 서버의 90%가 Arm ISA에 의존하고, x86과 RISC-V는 각각 약 10%를 차지할 것이라는 보고서를 발표했습니다. 이에 대해 인텔과 구글의 발표는 Xeon CPU가 맞춤형 IPU와 결합하여 AI 및 기타 고성능 워크로드에 앞으로도 오랜 기간 사용될 것임을 재차 강조했으며, 이는 업계의 기대치와 일치하는 내용입니다.
인텔의 Xeon 프로세서는 2000년대 초반부터 클라우드 인프라에 사용되어 왔으며, 그 이전에 구글 자체 서버에도 사용된 바 있어, x86 아키텍처는 일반적으로, 특히 Xeon은 가까운 시일 내에 구글 데이터센터를 떠날 가능성이 낮습니다. 그럼에도 불구하고, 이번 발표는 인텔 Xeon CPU의 중요성을 분명히 재강조하는 것이며, 이러한 메시지가 수년간 거의 모든 서비스에 걸쳐 특수 목적의 맞춤형 가속기를 운영해 온 구글로부터 나왔다는 점에서 그 의미가 매우 크게 증폭됩니다.
바다트 씨는 "인텔은 거의 20년 동안 신뢰할 수 있는 파트너였으며, 인텔의 Xeon 로드맵은 우리가 워크로드의 증가하는 성능 및 효율성 요구 사항을 계속 충족시킬 수 있다는 자신감을 제공합니다"라고 덧붙였습니다.
톰즈 하드웨어(Tom's Hardware)의 최신 뉴스, 분석, 리뷰를 피드에서 받아보시려면 구글 뉴스에서 팔로우하거나 즐겨찾기 출처로 추가해 주십시오.