• 엘론 머스크의 xAI, 미성년자들로부터 아동 포르노 소송에 직면… Grok이 의상을 탈의시켰다는 혐의 제기

    article image

    엘론 머스크의 회사 xAI가 자사 AI 모델이 식별 가능한 미성년자에 대한 유해한 성적 이미지를 생성하도록 허용한 점에 대해 책임을 져야 한다는 내용의 소송을 세 명의 익명 원고들이 월요일 캘리포니아 연방 법원에 제기했다고 주장했다.

    세 원고들은 자신들이 미성년자일 때의 실제 사진이 Grok에 의해 성적 콘텐츠로 변형된 모든 경우를 아우르는 집단 소송을 제기하고자 한다. 이들은 xAI가 타사 첨단 연구기관들이 사용하는 기본적인 예방 조치를 취하지 않아, 자사 이미지 모델이 실제 인물 및 미성년자를 묘사하는 포르노그래피를 생성할 수 있게 했다고 주장한다.

    본 소송은 Jane Doe 1, Jane Doe 2(미성년자), 및 Jane Doe 3(미성년자)가 x.AI Corp. 및 x.AI LLC를 상대로 캘리포니아 북부 지방 연방지방법원에 제기되었다.

    다른 딥러닝 이미지 생성기들은 일반 사진으로부터 아동 포르노그래피의 생성을 방지하기 위해 다양한 기술을 사용하고 있다. 그러나 이번 소송은 xAI가 이러한 업계 표준을 채택하지 않았다고 지적한다.

    특히, 모델이 실제 이미지를 이용해 노출되거나 에로틱한 콘텐츠 생성을 허용한다면, 아동의 성적 콘텐츠 생성을 완전히 막는 것은 사실상 불가능하다는 점이 강조된다. 이번 소송에서는 머스크가 Grok의 성적 이미지 생성 능력과 실제 인물을 노출이 심한 의상으로 묘사할 수 있는 능력을 공개적으로 홍보한 점이 핵심 쟁점으로 다루어지고 있다.

    회사 측은 테크크런치(TechCrunch)의 논평 요청에 응하지 않았다.

    원고 중 한 명인 Jane Doe 1은 자신이 고등학교 리마(homecoming) 및 졸업 앨범에서 찍은 사진을 Grok을 이용해 옷이 벗겨진 모습으로 변형한 이미지를 소유하고 있었다. 그녀에게 인스타그램을 통해 연락한 익명의 제보자는 해당 사진들이 온라인상에서 유통되고 있다고 알려주었고, 학교에서 알던 자신과 다른 미성년자들의 성애화된 이미지가 담긴 디스코드 서버 링크를 보내왔다.

    두 번째 원고인 Jane Doe 2는 Grok 모델에 의존하는 제3자 모바일 앱을 통해 자신을 대상으로 변형되고 성애화된 이미지가 생성되었다는 사실을 형사 수사관들로부터 통보받았다. 세 번째 원고인 Jane Doe 3 역시 수사관들이 체포한 피의자의 휴대폰에서 자신을 대상으로 변형된 포르노그래피 이미지를 발견하면서 그 사실을 통보받았다. 원고 측 변호인들은 제3자 이용의 경우에도 여전히 xAI의 코드와 서버를 사용해야 하므로, 회사가 책임을 져야 한다고 주장한다.

    미성년자인 세 원고는 이러한 이미지들의 유통과 그것이 자신의 명성 및 사회생활에 미칠 수 있는 영향에 대해 극심한 정신적 고통을 겪고 있다고 진술했다. 그들은 착취당한 아동을 보호하고 기업의 과실을 방지하기 위해 마련된 일련의 법률에 근거하여 민사상 손해배상 책임을 요구하고 있다.

    [출처:] https://techcrunch.com/2026/03/16/elon-musks-xai-faces-child-porn-lawsuit-from-minors-grok-allegedly-undressed