
메타는 메타 AI 챗봇 사용자가 다른 사용자의 비공개 프롬프트와 AI 생성 응답에 접근하고 볼 수 있게 했던 보안 버그를 수정했습니다.
보안 테스트 회사 AppSecure의 설립자 산딥 호드카시아(Sandeep Hodkasia)는 TechCrunch에 단독으로, 자신이 2024년 12월 26일 신고한 해당 버그를 비공개로 공개한 대가로 Meta가 그에게 버그 바운티 보상금 10,000달러를 지급했다고 전했습니다.
호드카시아에 따르면, Meta는 2025년 1월 24일에 수정 패치를 배포했으며, 해당 버그가 악의적으로 악용된 증거는 발견되지 않았습니다.
호드카시아는 TechCrunch에 Meta AI가 로그인 사용자가 AI 프롬프트를 수정하여 텍스트와 이미지를 재생성하는 과정을 조사하던 중 이 버그를 발견했다고 말했습니다. 그는 사용자가 프롬프트를 수정하면 Meta의 백엔드 서버가 해당 프롬프트와 생성된 AI 응답에 고유 번호를 할당한다는 사실을 알아냈습니다. 그 과정에서 브라우저의 네트워크 트래픽을 분석한 결과, 호드카시아는 이 고유 번호를 임의로 변경할 경우 Meta 서버가 완전히 다른 사람의 프롬프트와 AI 생성 응답을 반환하는 것을 확인했습니다.
이 버그는 Meta 서버가 프롬프트와 응답을 요청한 사용자가 해당 내용을 열람할 권한이 있는지 적절히 검증하지 못했음을 의미했습니다. 호드카시아는 Meta 서버가 생성하는 프롬프트 번호가 "추측하기 쉬워(easily guessable)" 악성 사용자가 자동화 도구를 이용해 프롬프트 번호를 빠르게 조작함으로써 사용자들의 원본 프롬프트를 스크래핑할 위험이 있었을 수 있다고 지적했습니다.
TechCrunch의 문의에 Meta 대변인 라이언 다니엘스(Ryan Daniels)는 해당 버그를 1월에 수정했으며, 회사 측에서 "남용의 증거를 찾지 못했고 연구원에게 보상했다"고 밝혔습니다.
이러한 버그 관련 소식은 거대 기술 기업들이 사용에 따르는 수많은 보안 및 개인정보 보호 위험에도 불구하고 AI 제품을 출시하고 개선하기 위해 사력을 다하고 있는 시점에 나왔습니다.
경쟁 앱인 ChatGPT 등과 경쟁하기 위해 올해 초 출시된 Meta AI의 독립형 앱은 일부 사용자들이 챗봇과의 사적인 대화라고 오인하여 내용을 부주의하게 공개적으로 공유한 사례가 발생한 이후 시작부터 어려움을 겪었습니다.