더 인포메이션(The Information)에 따르면, Arm이 대대적인 확장 계획의 일환으로 OpenAI의 맞춤형 Broadcom 기반 가속기(accelerator)를 위한 CPU를 개발 중이라고 한다.

OpenAI가 SoftBank가 소유한 Arm과 협력하여 Broadcom과 공동 개발 중인 맞춤형 AI 가속기를 보완할 새로운 CPU를 개발하는 것으로 알려졌다. The Information에 따르면, 이번 협력을 통해 Arm은 OpenAI의 차세대 AI 랙을 기반으로 서버급 CPU를 설계하게 되며, 이는 Arm에게 사상 최대 규모의 데이터 센터 시장 진출 기회가 될 잠재력을 지니고 있다.
해당 칩은 Broadcom과 협력하여 맞춤형 AI 가속기 및 랙 시스템을 배치하려는 계획에 따라 10월 13일에 발표된 OpenAI의 자체 AI 가속기이다. 추론(inference) 워크로드에 특화된 이 SoC는 2026년 말 양산을 시작하며, 2026년부터 2029년 사이에 약 10기가와트(GW)의 컴퓨팅 용량을 지원하도록 규모를 확장할 것으로 예상된다. TSMC가 제조할 것으로 알려진 Broadcom 가속기는 약 18개월에 걸쳐 개발되어 왔다.
The Information에 따르면, Arm의 새로운 역할은 단순히 아키텍처 청사진을 제공하는 수준을 훨씬 뛰어넘는다. Arm은 최근 파트너사에 코어를 라이선싱하는 방식 대신 자체 CPU를 설계하고 제조하기 시작했으며, OpenAI 계약을 통해 서버 시장에서의 입지를 확장하려는 야심을 보여주고 있다. 관계자들은 해당 매체에 OpenAI가 Arm이 설계한 CPU를 Broadcom 칩뿐만 아니라 Nvidia 및 AMD의 시스템과도 함께 사용할 수 있을 것이라고 전했다.
OpenAI, 데이터센터 자금 조달의 어려움으로 하드웨어 직접 확보 결정

해당 보고서는 또한 OpenAI의 CPU 프로그램이 수십억 달러에 달하는 잠재적 수익을 창출할 수 있으며, 이는 Arm 지분의 거의 90%를 소유하고 해당 지분을 담보로 대규모 대출을 받은 SoftBank에게 큰 이익이 될 것이라고 밝혔다. SoftBank는 나아가 OpenAI의 데이터센터 구축에 수백억 달러를 투자하고, Arm 자체 칩 개발 주기를 가속화하는 데 도움을 주기 위해 이 스타트업으로부터 AI 기술을 구매할 것을 약속했다.
OpenAI는 Nvidia 및 AMD와의 기존 계약과 더불어, 이번 칩 프로그램들만으로도 최대 26GW 규모의 계획된 데이터센터 용량을 확보했다고 밝혔다. 이 계획이 성공할 경우, OpenAI의 맞춤형 칩 배치는 분석가들의 추정치에 따르면 Nvidia 및 AMD 구매와 합산되어 건설 및 장비 비용으로 1조 달러를 초과하는 전체 설치 기반에 도달할 수 있다.
OpenAI와 Broadcom의 칩은 또한 ChatGPT 개발자에게 Nvidia와의 가격 협상에서 더 큰 협상력을 제공할 수 있다. 이는 Nvidia의 H100 및 곧 출시될 Blackwell GPU가 여전히 AI 학습 시장을 지배하고 있기 때문이다. 만약 Broadcom과 TSMC가 생산 규모 확대를 성공적으로 달성한다면, OpenAI의 추론 칩은 지난 한 해 동안 AI 연구소 운영의 제한 요인이었던 GPU 공급 부족에 대한 부분적인 헤지(hedge) 역할을 수행할 수 있을 것이다.
최신 뉴스, 분석 및 리뷰를 피드에서 받으려면 Google News에서 Tom's Hardware를 팔로우하거나 선호 소스로 추가하십시오.
[출처:] https://www.tomshardware.com/pc-components/cpus/openai-arm-partner-on-custom-cpu-for-broadcom-chip