
OpenAI는 지난 목요일, 자체 에이전트 코딩 도구인 Codex의 경량화 버전인 GPT-5.3-Codex-Spark를 출시한다고 발표했습니다. 이 모델은 OpenAI가 이달 초에 공개했던 최신 Codex 모델의 "더 작은 버전"으로, 빠른 추론(inference)에 최적화되었습니다. OpenAI는 이번 출시를 통해 하드웨어 파트너인 Cerebras의 전용 칩을 결합하며, 자사 물리적 인프라에 새로운 차원의 통합을 달성했다고 밝혔습니다.
Cerebras와 OpenAI 간의 협력 관계는 지난달에 처음 공개되었습니다. 당시 OpenAI는 Cerebras와 100억 달러가 넘는 규모의 장기 계약을 체결했다고 밝힌 바 있습니다. 당시 회사 측은 "Cerebras를 컴퓨팅 솔루션 구성 요소에 통합하는 목적은 AI의 반응 속도를 혁신적으로 높이는 것"이라고 강조했습니다. 이번 Spark의 출시는 이러한 파트너십의 "첫 번째 이정표"를 상징합니다.
OpenAI에 따르면, 실시간 협업과 '빠른 반복(rapid iteration)'을 위해 설계된 Spark는 Cerebras의 Wafer Scale Engine 3(WSE-3) 칩을 구동합니다. WSE-3는 4조 개의 트랜지스터를 탑재한 Cerebras의 3세대 웨어스케일 메가칩입니다. OpenAI는 이 새로운 경량 도구가 원본 5.3 모델이 설계된 것과 같은 장시간의 복잡한 작업보다는, "사용자가 신속한 프로토타이핑을 할 수 있도록 돕는 일일 생산성 동력원" 역할을 할 것이라고 설명했습니다. 현재 Spark는 Codex 앱을 이용하는 ChatGPT Pro 사용자들을 대상으로 연구 프리뷰가 진행 중입니다.
한편, 발표에 앞서 샘 알트만 CEO는 트위터를 통해 새로운 모델을 간접적으로 언급했습니다. 그는 "오늘 오후에 Pro 플랜의 Codex 사용자들을 위한 특별한 기능이 출시될 예정입니다. 저에게 큰 기쁨이 될 겁니다(It sparks joy)."라고 트윗하며 기대감을 높였습니다.
공식 성명에서 OpenAI는 Spark가 Codex가 구현할 수 있는 가장 낮은 지연 시간(latency)을 목표로 설계되었음을 강조했습니다. "Codex-Spark는 두 가지 보완적인 작동 모드를 갖춘 Codex를 향한 첫 단계입니다. 즉, 빠른 반복이 필요한 실시간 협업 모드와, 깊은 추론 및 실행이 필요한 장기 작업 모드입니다,"라고 OpenAI는 공유했습니다. 또한, 회사는 Cerebras의 칩이 "극도로 낮은 지연 시간을 요구하는 워크플로우 지원에 특히 탁월하다"고 덧붙였습니다.
Cerebras는 10년이 넘는 역사를 가졌음에도 불구하고, AI 시대에 들어서면서 기술 업계에서 그 중요성이 급부상했습니다. 실제로 지난주에는 기업가치 230억 달러를 인정받아 10억 달러 규모의 신규 자금을 조달했다고 발표했으며, 이전에 IPO를 추진할 계획도 밝힌 바 있습니다.
Cerebras의 CTO 겸 공동 창업자인 션 리(Sean Lie)는 성명에서 "GPT-5.3-Codex-Spark를 통해 저희를 가장 설레게 하는 부분은, OpenAI 및 개발자 커뮤니티와 협력하여 빠른 추론이 무엇을 가능하게 하는지 발견하는 과정입니다. 이는 새로운 상호 작용 패턴, 새로운 사용 사례, 그리고 근본적으로 다른 모델 경험을 의미합니다"라며 "이 프리뷰는 시작에 불과합니다"라고 말했습니다.
[출처:] https://techcrunch.com/2026/02/12/a-new-version-of-openais-codex-is-powered-by-a-new-dedicated-chip