
Anthropic은 자신을 '신중한 AI 기업'이라는 공적인 정체성을 확립해 왔다. AI 위험에 대한 상세한 작업을 발표하고, 업계 최고 연구 인력을 고용하며, 이처럼 강력한 기술 개발에 수반되는 책임에 대해서도 목소리를 높여 왔다. 물론 그 발언이 지나치게 높아져 현재는 미 국방부(Department of Defense)와 마찰을 빚는 지경에 이르렀다. 화요일, 하필 그곳의 누군가가 체크박스 하나를 확인하는 것을 잊은 것이다.
특히 이번은 일주일 만에 두 번째 사고다. 지난 목요일, 포춘(Fortune)은 Anthropic이 아직 공식 발표하지 않은 강력한 신규 모델을 설명하는 초안 블로그 게시물을 포함하여, 약 3,000개의 내부 파일이 실수로 외부 공개되었다고 보도했다.
화요일 발생한 사건은 이렇다. Anthropic이 Claude Code 소프트웨어 패키지의 버전 2.1.88을 배포하는 과정에서, 의도치 않게 약 2,000개의 소스 코드 파일과 512,000줄이 넘는 코드가 포함된 파일이 포함되면서 누출되었다. 이는 본질적으로 회사의 핵심 제품 중 하나에 대한 전체 구조 설계도(architectural blueprint)나 다름없다. 보안 연구원 차오판 쇼(Chaofan Shou)가 이를 거의 즉시 감지하고 X에 관련 내용을 게시했다. 여러 매체를 통해 보도된 Anthropic의 성명은 "이는 보안 침해가 아니라 인적 오류로 발생한 릴리스 패키징 문제였다"라는 매우 담담한 어조였다. (물론 내부적으로는 상황이 이보다 훨씬 덜 침착했을 것이라고 짐작할 수 있다.)
Claude Code는 단순한 부속 제품이 아니다. 개발자가 Anthropic의 AI를 활용하여 코드를 작성하고 편집할 수 있도록 만든 커맨드라인 도구이며, 현재는 경쟁사들마저 불안하게 만들 만큼 강력한 도구로 자리매김했다. WSJ에 따르면, OpenAI는 개발자 및 기업 시장에 역량을 집중하기 위해, 공계 출시 단 6개월 만에 비디오 생성 제품 Sora의 서비스를 중단하기도 했다. 이는 부분적으로 Claude Code의 입지 확장에 대한 대응으로 분석된다.
누출된 것은 AI 모델 자체의 지능이 아니었다. 모델을 둘러싼 소프트웨어 골격, 즉 모델에게 어떻게 행동해야 하는지, 어떤 도구를 사용해야 하는지, 그리고 그 사용 한계는 어디인지를 규정하는 '지침'이 노출된 것이다. 개발자들은 거의 즉시 상세한 분석을 게재하기 시작했으며, 한 개발자는 이 제품을 "단순히 API를 감싼 래퍼(wrapper)가 아니라, 프로덕션급 개발자 경험"이라고 평했다.
이러한 누출이 장기적으로 어떤 의미를 지닐지는 결국 개발자들의 몫에 맡길 문제다. 경쟁사들은 이 아키텍처를 매우 유용하게 참고할 수 있지만, 이 분야의 기술 발전 속도는 워낙 빠르다.
어느 쪽이든, Anthropic의 어딘가에서는 재능 있는 엔지니어 한 명이 오늘 남은 하루를 조용히 자신이 여전히 직장을 유지할 수 있을지 궁금해하며 보내고 있을 것이라 상상하게 된다. 부디 그가 지난주 말의 같은 엔지니어, 혹은 엔지니어 팀이 아니기를 바랄 뿐이다.
[출처:] https://techcrunch.com/2026/03/31/anthropic-is-having-a-month