
케이틀린 칼리노프스키(Caitlin Kalinowski)는 오늘 OpenAI가 국방부(Department of Defense)와 체결한 논란의 계약에 대응하여 회사의 하드웨어 팀 리더 자리에서 사임했음을 발표했습니다.
칼리노프스키는 소셜 미디어를 통해 “쉬운 결정은 아니었습니다”라고 밝히며, “AI는 국가 안보에서 중요한 역할을 하지만, 사법부의 감독 없이 미국 시민을 감시하는 것과 인간의 승인 없이 치명적인 자율성을 가진 시스템은 그보다 더 깊은 숙고가 필요했던 영역들입니다”라고 지적했습니다.
이전에 메타(Meta)에서 증강현실(AR) 안경 개발팀을 이끌었던 칼리노프스키는 2024년 11월 OpenAI에 합류했습니다. 그녀는 오늘 발표에서 이번 결정이 “사람에 대한 문제가 아니라 원칙에 관한 것”이라 강조하며, 샘 알트만(Sam Altman) CEO와 OpenAI 팀에 “깊은 존경심”을 표했습니다.
X에 올린 후속 게시물에서 칼리노프스키는 “명확히 하자면, 문제가 된 것은 안전장치(guardrails)가 정의되지 않은 채 발표가 성급하게 이루어졌다는 점입니다. 이는 무엇보다 거버넌스(governance) 문제입니다. 이러한 문제들은 거래나 단순한 발표로 서둘러 다룰 수 없을 만큼 중대한 문제입니다”라고 덧붙였습니다.
OpenAI 측 대변인은 TechCrunch에 칼리노프스키의 사임 사실을 확인했습니다.
회사는 성명을 통해 “우리는 국방부와의 계약이 AI의 책임 있는 국가 안보 활용을 위한 실현 가능한 경로를 마련하는 동시에, 국내 감시와 자율 무기 사용에 대한 레드라인(red lines)을 분명히 한다고 믿습니다”라고 밝혔습니다. 이어 “이 문제에 대해 강한 의견을 가진 사람들이 있다는 것을 인식하고 있으며, 직원, 정부, 시민사회, 그리고 전 세계 지역 사회와 지속적으로 논의를 진행할 것입니다”라고 덧붙였습니다.
OpenAI의 국방부 계약은 일주일여 전에 발표된 내용입니다. 이 계약은 AI 기업이 자사 기술이 대규모 국내 감시나 완전 자율 무기로 사용되는 것을 막기 위한 안전장치 논의를 진행하던 중, 국방부와 Anthropic 간의 논의가 결렬된 후에 나온 일이었습니다. 이에 국방부는 Anthropic을 공급망 리스크(supply-chain risk)로 지정했습니다. (Anthropic은 이 지정에 대해 법적 대응을 예고했으며, 한편 Microsoft, Google, Amazon는 Anthropic의 Claude를 국방 관련 고객을 제외한 다른 고객들에게 계속 사용할 수 있도록 할 것이라고 밝혔습니다.) 이후 OpenAI는 자체적으로 계약을 발표하며 자사 기술이 기밀 환경에서 사용될 수 있게 했습니다. 당시 임원들이 소셜 미디어에서 이 계약을 설명하며, 회사는 Anthropic이 주장했던 레드라인과 유사한 안전장치를 보호하기 위해 단순히 계약 문구뿐만 아니라 기술적 안전장치까지 결합한 “더 광범위하고 다층적인 접근 방식”이라고 설명했습니다.
그럼에도 불구하고 이 논란은 일부 소비자들 사이에서 OpenAI의 평판에 부정적 영향을 미친 것으로 보이며, ChatGPT의 미설치 건수는 295% 급증했고, Claude는 앱스토어 차트 최상단에 오르는 등의 현상이 나타났습니다. 토요일 오후 기준으로 Claude와 ChatGPT는 각각 미국 앱스토어 무료 앱 1위와 2위를 지키고 있습니다.
(본 게시물은 OpenAI에서의 칼리노프스키의 역할에 대한 설명을 수정하여 업데이트되었습니다.)