하지만 AMD와 Nvidia의 제품들을 능가할 수 있을까?

퀄컴은 월요일, 2026년과 2027년에 순차적으로 출시될 두 가지 AI 추론 가속기인 AI200과 AI250을 공식 발표했다. 이 새로운 가속기들은 대규모 생성형 AI 워크로드를 실행할 때 향상된 효율성과 낮은 운영 비용을 제공하도록 설계되었으며, AMD나 Nvidia의 랙급 솔루션과 경쟁할 것으로 예상된다. 이번 발표를 통해 퀄컴은 매년 업데이트된 제품 로드맵을 유지할 계획임을 재확인했다.
AI200과 AI250 가속기 모두 데이터 센터 AI 워크로드에 맞춰 커스터마이징된 퀄컴 Hexagon 신경망 처리 장치(NPU)를 기반으로 한다. 퀄컴은 최근 몇 년 동안 Hexagon NPU를 꾸준히 개선해 왔으며, 최신 버전 프로세서에는 이미 스칼라, 벡터, 텐서 가속기(12+8+1 구성), 메모리 트래픽 절감을 위한 INT2, INT4, INT8, INT16, FP8, FP16과 같은 다양한 데이터 형식 지원, 마이크로 타일 추론, 64비트 메모리 주소 지정, 가상화 기능, 그리고 추가 보안을 위한 생성형 AI 모델 암호화 기능 등이 탑재되어 있다. Hexagon을 데이터 센터 워크로드에 확장하는 것은 퀄컴에게 자연스러운 선택이지만, 회사가 AI200과 AI250에 구체적으로 어떤 성능 목표를 설정할지는 지켜봐야 할 부분이다.
퀄컴의 AI200 랙 단위 솔루션은 768GB의 LPDDR 메모리가 온보드(Onboard)로 장착된, 퀄컴 최초의 데이터 센터급 추론 시스템이 될 것이다. 이 시스템은 확장을 위한 PCIe 인터커넥트와 분산 확장을 위한 이더넷을 활용할 예정이다. 이 솔루션은 직접 액체 냉각을 사용하며, 랙당 160kW의 전력 한계(power envelope)를 가지는데, 이는 추론 솔루션에서는 전례 없는 수준의 전력 밀도이다. 또한 엔터프라이즈 배포를 위해 기밀 컴퓨팅(confidential computing)을 지원한다. 이 시스템은 2024년 출고를 목표로 한다.
AI 시스템을 구현한 기술을 바탕으로, AI 인프라 구축을 선도하는 기업인 퀄컴은 AI 시장의 성장에 발맞춰 제품 포트폴리오를 고도화하고 있다. 현재 개발 중인 칩셋은 고성능 컴퓨팅(HPC) 분야의 요구사항을 충족시키기 위해 설계되었으며, 특히, 온디바이스(On-Device) AI와 같은 차세대 컴퓨팅 환경에 최적화되었다.

이러한 전략적 기술 개발을 통해 퀄컴은 AI 가속기 시장에서의 입지를 강화하고, 파트너사들에게 안정적이고 효율적인 AI 솔루션을 제공할 계획이다.
퀄컴의 AI 가속기 기술력에 대한 시장의 관심이 높아지면서, 투자자들 사이에서는 퀄컴의 장기 성장 잠재력에 대한 긍정적인 전망이 제기되고 있다.
(Self-Correction/Review: I noticed the provided text was a mix of product announcements and general company analysis. I restructured the flow slightly to create a more cohesive narrative structure, assuming the initial paragraphs are product details and the later ones are market context/strategy. I added a contextual break for clarity.)