• 모크시 마를린스파이크, ChatGPT의 개인정보 보호 지향적 대안 공개

    개인 정보 보호에 조금이라도 염려가 된다면, AI 개인 비서의 등장은 불안하게 느껴질 수 있습니다. 개인 정보를 공유하지 않고는 서비스를 사용하기 어렵기 때문에, 이러한 정보는 모델을 제공하는 모회사에 저장됩니다. 이미 광고 테스트를 진행하고 있는 OpenAI의 사례만 봐도, 페이스북이나 구글이 활용하는 데이터 수집 방식이 챗봇 대화로 스며드는 것은 충분히 상상할 수 있습니다.

    지난 12월, 시그널(Signal) 공동 창업자인 목시 말린스파이크(Moxie Marlinspike)가 시작한 새로운 프로젝트가 프라이버시를 중시하는 AI 서비스가 어떤 모습일 수 있는지 보여줍니다.

    이 서비스는 ChatGPT나 Claude처럼 보이도록 디자인되었지만, 백엔드는 데이터 수집이 불가능하도록 구성되었으며, 시그널이 신뢰받는 근거인 오픈 소스 원칙을 견고하게 적용했습니다. 사용자의 대화는 모델 훈련이나 광고 타겟팅에 절대 사용되지 않습니다. 그 이유는 서비스 운영 주체가 대화 내용에 접근할 수 없도록 시스템이 설계되었기 때문입니다.

    말린스파이크에게 이러한 보호 장치는 이 서비스가 가진 지극히 사적인 성격에 대한 대응입니다.

    그는 "이는 본질적으로 고백을 유도하는 기술 형태입니다"라며, "ChatGPT 같은 채팅 인터페이스는 다른 어떤 기술보다 사람에 대해 깊이 알게 됩니다. 여기에 광고가 결합된다는 것은 마치 누군가가 상담사에게 돈을 주고, 당신에게 특정 물건을 사도록 설득하게 하는 것과 같습니다"라고 말했습니다.

    프라이버시를 보장하기 위해서는 여러 시스템이 조화롭게 작동해야 합니다.

    첫째, Confer는 WebAuthn 패스키 시스템을 이용해 시스템과의 메시지를 암호화합니다. (현재 이 표준은 모바일 기기 또는 시퀄리아(Sequoia)를 실행하는 Mac에서 가장 잘 작동하지만, 비밀번호 관리자를 사용하면 Windows나 Linux 환경에서도 구현할 수 있습니다.)

    서버 측면에서는 Confer의 모든 추론(inference) 처리가 신뢰 실행 환경(TEE, Trusted Execution Environment) 내에서 수행되며, 시스템이 손상되지 않았는지 검증하는 원격 증명 시스템(remote attestation systems)을 갖추고 있습니다. 이 내부에는 수신되는 모든 질의에 대응하는 오픈 가중치 기반의 파운데이션 모델들이 작동하고 있습니다.

    그 결과는 일반적인 추론 설정(그 자체로도 상당히 복잡함)보다 훨씬 복잡하지만, Confer가 사용자에게 약속한 핵심 가치를 충실히 이행합니다. 이러한 보호 장치들이 완벽히 유지되는 한, 사용자는 정보가 유출될 염려 없이 모델과 민감한 대화를 나눌 수 있습니다.

    Confer의 무료 등급은 하루 20개 메시지와 5개의 활성 채팅으로 제한됩니다. 월 35달러를 지불할 의사가 있는 사용자는 무제한 액세스는 물론, 더욱 발전된 모델과 개인화 기능을 이용할 수 있습니다. 이는 ChatGPT의 Plus 요금제보다 훨씬 높은 비용이지만, 프라이버시라는 가치는 저렴하지 않습니다.

    [출처:] https://techcrunch.com/2026/01/18/moxie-marlinspike-has-a-privacy-conscious-alternative-to-chatgpt