• 공식 발표: 펜타곤, 앤트로픽을 공급망 위험으로 지정하다

    article image

    한 부서 고위 관계자의 보도에 따르면, 미 국방부(DOD)가 Anthropic 경영진에게 회사 및 그 제품들이 ‘공급망 리스크(supply-chain risk)’로 지정되었음을 공식 통보했습니다.

    이번 지정은 AI 연구소와 국방부 간의 수 주간의 갈등 끝에 나온 것입니다. Anthropic의 CEO인 다리오 아모데이(Dario Amodei)는 미군이 미국의 대규모 감시(mass surveillance)에 자사 AI 시스템을 사용하는 것을 거부했을 뿐만 아니라, 인간의 개입 없이 표적 지정이나 발사 결정이 이루어지는 완전 자율 무기(fully autonomous weapons)의 동력원 역할도 거부했습니다. 이에 대해 국방부는 AI 활용에 사기업 계약업체의 제약이 있어서는 안 된다고 주장해왔습니다.

    공급망 리스크 지정은 일반적으로 적대적인 외국 국가를 대상으로 합니다. 이 표시는 펜타곤과 협력하는 모든 기업이나 기관이 Anthropic의 모델을 사용하지 않음을 인증하도록 요구합니다.

    펜타곤의 이러한 결정은 Anthropic뿐만 아니라 국방부 자체의 운영에도 차질을 빚게 할 위협이 됩니다. Anthropic은 기밀 등급을 다룰 수 있는 시스템을 갖춘 유일한 프론티어 AI 연구소입니다. 실제로 미군은 현재 이란 작전에서 Claude를 활용하고 있으며, 미군은 AI 도구를 이용해 작전 데이터를 신속하게 관리하고 있습니다. 블룸버그에 따르면, Claude는 중동 지역 군 작전 요원들이 의존하는 팔란티어(Palantir)의 메이븐 스마트 시스템(Maven Smart System)에 탑재된 주요 도구 중 하나입니다.

    여러 비평가들은 이러한 이견을 이유로 Anthropic을 공급망 리스크로 지정한 것이 국방부의 전례 없는 움직임이라고 비판합니다. 전 트럼프 백악관 AI 자문관이었던 딘 볼(Dean Ball)은 이 지정을 미국 공화국의 "죽음의 징후(death rattle)"라고 언급하며, 정부가 전략적 명확성과 존중을 포기하고 국내 혁신 기업을 외국 적대국보다 더 혹독하게 대우하는 "폭력적인" 부족주의에 빠졌다고 주장했습니다.

    OpenAI와 구글의 수백 명의 직원들은 국방부에 이 지정을 철회할 것을 촉구했으며, 의회에는 미국 기술 회사에 대한 부적절한 권한 남용으로 비칠 수 있는 행위에 제동을 걸 것을 요청했습니다. 이들은 또한 지도자들에게 단결하여 국내 대규모 감시 또는 "인간의 감독 없이 사람을 자율적으로 살해하는" 목적으로 AI 모델을 사용하라는 국방부의 요구를 지속적으로 거부할 것을 당부했습니다.

    테크크런치(TechCrunch)는 Anthropic 측에 논평을 요청했습니다.

    이 분쟁이 진행되는 와중에 OpenAI는 국방부와 별도의 계약을 체결하여 미군이 자사 AI 시스템을 "모든 합법적인 목적(all lawful purposes)"으로 사용할 수 있도록 허용했습니다. 그러나 일부 직원들은 이 계약의 모호한 문구에 우려를 표명했는데, 이는 Anthropic이 피하려 했던 바로 그러한 유형의 사용으로 이어질 수 있기 때문입니다.

    아모데이는 국방부의 조치를 "보복적이고 징벌적"이라고 규정했으며, 전해진 바에 따르면 그가 트럼프 대통령을 칭찬하거나 기부하는 것을 거부한 것이 펜타곤과의 분쟁을 야기했다고 밝혔습니다. OpenAI의 총괄인 그렉 브록먼(Greg Brockman)은 트럼프의 확고한 지지자로서 최근 MAGA Inc. 슈퍼 PAC에 2,500만 달러를 기부한 바 있습니다.

    [출처:] https://techcrunch.com/2026/03/05/its-official-the-pentagon-has-labeled-anthropic-a-supply-chain-risk