최근 업계에서 가장 뜨거운 화두 중 하나는 단연코 'AI 안전성'과 그에 따른 거대 자본의 움직임이다.
전 OpenAI의 핵심 과학자였던 일리야 수츠케버가 공동 창업한 세이프 슈퍼인텔리전스(SSI)가 10억 달러가 넘는 막대한 자금을 유치했다는 소식은, 마치 AI의 다음 단계가 '성능' 경쟁을 넘어 '통제'와 '안전'의 영역으로 완전히 이동했다는 선언처럼 들린다.
a16z, Sequoia 같은 거물급 투자사들이 이 거액을 투입했다는 사실 자체만으로도, 시장이 현재의 AI 개발 패러다임에 대해 근본적인 의구심을 품고 있거나, 혹은 그 의구심을 '안전성 확보'라는 명분으로 포장하고 있다는 해석이 가능하다.
물론 이 자금이 컴퓨팅 파워 확보와 최고급 인재 영입에 쓰일 것이라는 설명은 매우 논리적이다.
하지만 우리는 여기서 한 걸음 더 물러서서 질문해야 한다.
과연 이 자금 유치가 정말로 '안전'이라는 순수한 과학적 목표만을 추구하는 것일까?
아니면, 기존의 거대 플레이어들 사이에서 발생한 내부적 균열과 권력 다툼의 부산물에, 가장 그럴듯한 '윤리적 명분'이라는 옷을 입힌 것일까?
수츠케버가 OpenAI를 떠난 배경을 되짚어보면, 그가 언급했던 '소통의 붕괴'라는 표현은 단순한 팀워크의 문제가 아니라, 최고 수준의 연구 방향성과 거버넌스에 대한 근본적인 이견이 충돌했음을 시사한다.
10억 달러라는 숫자는 이 분열이 단순한 학문적 의견 차이를 넘어, 거대한 자본과 시장의 기대치가 얽힌 지점임을 명확히 보여준다.
우리가 흔히 접하는 AI 발전의 서사는 '더 크고, 더 빠르고, 더 똑똑한 모델'을 향해 직선적으로 나아가는 것처럼 그려진다.
하지만 SSI의 등장은 이 직선적 서사에 거대한 균열을 일으키고 있다.
모두가 'Superintelligence'라는 궁극적인 목표에 도달하기 위해 속도와 규모를 최우선 가치로 두는 와중에, 이처럼 거대한 자본이 '안전성'이라는 필터를 전면에 내세우는 것은 매우 이례적이다.
이 지점에서 우리는 가장 비판적인 시각을 가져야 한다.
'안전'이라는 개념은 그 자체로 너무나 광범위하고 정의하기 어렵다.
어떤 안전을 말하는가?
오작동 방지인가, 아니면 특정 정치적/경제적 이해관계에 부합하는 결과만을 내도록 제어하는 것인가?
만약 후자라면, 이는 순수한 과학적 탐구라기보다는, 특정 이해관계자들이 원하는 '통제 가능한 지능'을 구축하려는 시도에 가깝다.
수츠케버가 이끄는 그룹이 확보하려는 컴퓨팅 파워와 인재들은 분명 세계 최고 수준일 것이지만, 그들이 해결하려는 '통신 붕괴'의 근본 원인이 기술적 한계인지, 아니면 조직적/철학적 합의의 부재인지를 분리해서 봐야 한다.
만약 후자라면, 아무리 많은 돈을 투입해도 해결할 수 없는, 인간 집단 지성의 영역에 속하는 문제일 가능성이 높다.
결국, 이 거대한 자금 유치는 단순히 새로운 연구소를 세우는 행위를 넘어, 누가 미래 AI의 '정의'와 '지배 구조'에 대한 최종적인 발언권을 가질 것인가에 대한 거대한 자본적 베팅인 셈이다.
AI의 다음 국면은 성능 경쟁이 아닌, 누가 '안전'이라는 명분을 가장 설득력 있게 자본화하고 정의하느냐의 권력 투쟁이 될 것이다.