
엘로우 AI(Elloe AI)의 창립자인 오웬 사카와(Owen Sakawa)는 자사의 플랫폼이 "AI의 면역 시스템"이자 "모든 AI 에이전트를 위한 바이러스 백신"이 되기를 바란다고 전했습니다.
사카와는 테크크런치 디스럽트(TechCrunch Disrupt) 컨퍼런스 며칠 전 인터뷰에서, 이 플랫폼은 기업의 LLM(대규모 언어 모델)에 편향성, 환각(hallucinations), 오류, 규정 준수 문제, 허위 정보, 안전하지 않은 출력을 검사하는 계층(레이어)을 추가하는 개념이라고 설명했습니다.
그는 "AI는 매우 빠른 속도로 진화하고 있으며, 가드레일이나 안전망, 혹은 궤도를 이탈하는 것을 막을 메커니즘 없이 이러한 속도로 움직이고 있다"고 언급했습니다.
사카와가 설명한 바에 따르면, 엘로우 AI는 API 또는 SDK 형태로, AI 모델의 출력 레이어 위에 위치하는 모듈, 즉 "LLM 파이프라인 위에 놓이는 인프라"입니다. 그는 이 모듈이 "기본적으로 모든 응답에 대해 사실 확인을 수행하는 방식으로 작동한다"고 덧붙였습니다.
이 스타트업의 시스템은 자체적인 레이어, 혹은 사카와가 "앵커(anchors)"라고 부르는 구조를 갖추고 있습니다.
첫 번째 앵커는 LLM의 응답을 검증 가능한 출처와 대조하여 사실 여부를 확인합니다. 다음으로, 두 번째 앵커는 해당 출력이 미국 건강 프라이버시법(HIPAA)이나 유럽의 광범위한 데이터 보호 및 프라이버시법(GDPR) 등 특정 규정을 위반하는지, 또는 개인 식별 정보(PII)를 노출하는지를 점검합니다. 마지막 앵커는 감사 추적(audit trail) 기능으로, 이전 결정 과정 전체를 보여주며, 이를 통해 규제 기관이나 시스템 감사자는 "모델이 결정을 내린 사고의 흐름, 해당 결정의 출처, 그리고 모든 결정에 대한 신뢰도 점수까지 분석할 수 있다"고 사카와는 설명했습니다.
사카와는 엘로우 AI가 LLM을 기반으로 구축된 것은 아니라고 명확히 밝혔습니다. 그는 자신의 견해로는 LLM이 다른 LLM을 검사하는 것은 단지 "또 다른 상처에 반창고를 붙이는 격"에 불과하기 때문이라고 지적했습니다. 다만, 엘로우 AI 시스템은 머신러닝과 같은 AI 기술을 활용하며, 인간이 개입하는 루프(human in the loop) 구조도 포함하고 있습니다. 사카와에 따르면, 엘로우 AI 직원들은 데이터 보호 및 사용자 보호에 관한 새로운 규제 변화를 지속적으로 추적하고 있습니다.
엘로우 AI에 대해 더 자세히 알고 싶거나, 수십 개의 다른 회사들의 발표를 청취하고 네 개의 다른 무대에서 열리는 초청 연사 강연을 듣고자 한다면, 10월 27일부터 29일까지 샌프란시스코에서 개최되는 디스럽트(Disrupt)에 참여하시기 바랍니다.
더 알아보기 여기를 클릭하세요.