
샘 올트먼(Sam Altman) CEO가 직접 인정했듯이, OpenAI의 국방부(Department of Defense)와의 계약은 "분명히 성급하게 추진되었으며", "여론(optics)이 좋지 않다."
Anthropic과 국방부 간의 협상은 결렬됐다.
도널드 트럼프 대통령은 지난 금요일, 6개월의 전환 기간을 거쳐 연방 기관들에게 Anthropic 기술 사용 중단을 지시했으며, 피트 헤그세스(Pete Hegseth) 국방장관은 이 AI 회사를 공급망 위험 요소로 지정했다.
이에 OpenAI는 자체적으로 기밀 환경에 모델을 배포할 수하는 계약을 체결했다고 급히 발표했다. Anthropic은 자사 기술을 자율 무기나 대규모 국내 감시에 사용하는 것에 '레드 라인(red lines)'을 설정했다고 밝힌 반면, 올트먼 역시 OpenAI도 동일한 '레드 라인'을 가지고 있다고 언급하면서, 여러 의문이 제기되었다. 과연 OpenAI가 자신들의 안전장치에 대해 진실했는가? 왜 Anthropic이 계약에 실패했는데 OpenAI만 계약을 체결할 수 있었을까?
이에 OpenAI 임원들은 소셜 미디어에서 이 합의를 변호하는 동시에, 회사는 자체 접근 방식을 설명하는 블로그 게시물을 발행했다.
이 게시물은 OpenAI 모델이 사용될 수 없는 세 가지 영역을 구체적으로 명시했다. 즉, 대규모 국내 감시, 자율 무기 시스템, 그리고 "사회 신용 점수"와 같은 "고위험 자동화 결정" 사례이다.
회사는 다른 AI 회사들이 국가 안보 환경에서 '안전장치(safety guardrails)를 축소하거나 제거하고 주로 사용 정책에 의존'하는 것과 달리, OpenAI의 계약은 '더 광범위하고 다층적인 접근 방식'으로 레드 라인을 보호한다고 주장했다.
블로그에는 "우리는 안전 스택(safety stack)에 대한 완전한 재량을 유지하며, 클라우드를 통해 배포하고, 승인된 OpenAI 직원이 관여하며, 강력한 계약적 보호 장치를 갖추고 있다"고 명시되어 있다. "이는 미국 법률에 이미 존재하는 강력한 보호 장치에 추가되는 것이다."
회사는 또한 "Anthropic이 왜 이 계약을 체결하지 못했는지는 알 수 없으며, 그들뿐만 아니라 더 많은 연구소들이 이 점을 고려하기를 바란다"고 덧붙였다.
이 게시물이 공개된 후, Techdirt의 마이크 마스닉(Mike Masnick)은 이 계약이 "국내 감시를 절대적으로 허용한다"고 주장했다. 그 이유는 사적 데이터 수집이 행정명령 12333호(Executive Order 12333)를 포함한 다수의 다른 법률을 준수한다고 명시되어 있기 때문이다. 마스닉은 이 명령을 "NSA가 미국 외부의 데이터에 대한 접근을 허용하는 것과 같은 맥락"이라고 해석했다.
한편, OpenAI의 다른 연구 책임자인 일론 머스크의 말을 인용한 다른 언론 보도에 따르면, 이 계약은 "군사적 목적의 사용까지 포함"한다고 지적했다.
OpenAI의 회장인 샘 알트만은 인터뷰에서 이 계약이 "미국 국가 안보에 기여하는 것을 포함하여, 광범위한 목적을 포괄한다"고 설명했다.
결론적으로, 이 계약은 단순한 AI 모델의 상용화를 넘어, 미군과 정부 기관의 광범위한 활동 영역과 연계되어 AI 기술의 군사적 활용까지 포괄하는 거대한 틀을 제공하는 것으로 분석되고 있다.
[출처:] https://techcrunch.com/2026/03/01/openai-shares-more-details-about-its-agreement-with-the-pentagon