• Irregular, 최첨단 AI 모델 확보를 위해 8천만 달러(80M) 투자 유치

    article image

    AI 보안 기업 Irregular는 수요일, Sequoia Capital과 Redpoint Ventures가 주도하고 Wiz의 Assaf Rappaport CEO가 참여한 라운드를 통해 8천만 달러 규모의 신규 자금을 확보했다고 발표했다. 거래에 정통한 소식통에 따르면, 이번 투자 라운드를 통해 Irregular의 기업 가치(Valuation)는 4억 5천만 달러로 평가되었다.

    공동 창립자인 Dan Lahav는 TechCrunch과의 인터뷰에서 "우리의 관점은 가까운 시일 내에 인간과 AI 간의 상호작용, 그리고 AI와 AI 간의 상호작용을 통해 막대한 경제적 활동이 창출될 것이며, 이는 보안 스택을 여러 지점에서 무력화시킬 것"이라고 말했다.

    과거 Pattern Labs라는 이름으로 알려진 Irregular는 이미 AI 평가 분야에서 중요한 기업으로 자리매김했다. 이 회사의 평가 결과는 Claude 3.7 Sonnet의 보안 평가뿐만 아니라 OpenAI의 o3 및 o4-mini 모델에서도 활용된 바 있다. 더 넓게는, 모델의 취약점 탐지 능력을 점수화하는 이 회사의 독자적인 프레임워크(SOLVE)가 업계 전반에서 광범위하게 사용되고 있다.

    Irregular가 모델의 기존 위험성 평가에 상당한 기여를 해왔음에도 불구하고, 이번 자금 조달의 목표는 훨씬 더 야심찬 영역에 초점을 맞추고 있다. 즉, 잠재적인 위험 요소와 오작동이 실제 환경(in the wild)에 나타나기 전에 이를 미리 포착하는 것이다. 이를 위해 회사는 모델을 실제 출시하기 전부터 집중적인 테스트를 수행할 수 있는 정교한 시뮬레이션 환경 시스템을 구축했다.

    공동 창립자 Omer Nevo는 "우리는 AI가 공격자 역할과 방어자 역할을 모두 수행하는 복잡한 네트워크 시뮬레이션을 가지고 있다"라며, "따라서 새로운 모델이 출시될 때 방어 체계가 어느 부분에서 견고한지, 또 어느 부분에서 취약한지를 확인할 수 있다"고 설명했다.

    AI 산업에서 위험 요소가 증가함에 따라 보안은 핵심 관심사로 부상했다. OpenAI는 잠재적인 기업 스파이 활동에 대비하여 올여름 내부 보안 조치들을 대대적으로 개편했다. 동시에 AI 모델들은 소프트웨어 취약점을 찾아내는 데 점점 더 능숙해지고 있으며, 이는 공격자와 방어자 양측에 심각한 영향을 미치는 양날의 검이 되었다.

    Irregular의 창립자들에게 이는 거대 언어 모델(LLM)의 역량이 커짐에 따라 발생하는 수많은 보안 문제 중 첫 번째 사례에 불과하다.

    Lahav는 "프론티어 연구소의 목표가 점점 더 정교하고 강력한 모델을 만드는 것이라면, 우리의 목표는 이러한 모델들을 안전하게 만드는 것"이라고 말하며, "하지만 이것은 끊임없이 변화하는 목표이기 때문에, 본질적으로 미래에는 우리가 해야 할 일이 엄청나게 많다"라고 강조했다.

    [출처:] https://techcrunch.com/2025/09/17/irregular-raises-80-million-to-secure-frontier-ai-models