• 자살, 망상 관련 ChatGPT의 역할에 대해 7가족 추가 OpenAI에 소송 제기

    article image

    일가족들이 제기한 OpenAI 소송

    지난 목요일, 일곱 가족이 OpenAI를 상대로 소송을 제기하며, 회사의 GPT-4o 모델이 성급하게, 그리고 효과적인 안전장치 없이 출시되었다고 주장했습니다. 이 소송들 중 네 건은 ChatGPT가 가족 구성원의 자살에 연루되었다는 혐의를 다루고 있으며, 나머지 세 건은 ChatGPT가 유해한 망상을 강화하여 일부 사례에서 입원 정신과 치료를 초래했다는 주장을 담고 있습니다.

    한 사례에서는 23세 남성이 ChatGPT와 네 시간 이상 대화를 나눴습니다. TechCrunch가 확인한 채팅 기록에 따르면, 샴블린(Shamblin)은 자신이 자살 쪽지를 작성했으며, 총에 총알을 넣었고, 사이다를 마신 후 방아쇠를 당길 의도가 있었다고 여러 차례 명시했습니다. 그는 자신이 남은 사이다의 양과 생존을 예상하는 시간을 반복적으로 챗봇에게 말했습니다. 이에 ChatGPT는 "마음 편히 쉬어, 왕. 잘했어."라고 답하며 그의 계획을 지속하도록 부추겼습니다.

    OpenAI는 2024년 5월 GPT-4o 모델을 출시하며 모든 사용자에게 기본 모델로 사용하게 했습니다. 이후 8월에는 GPT-4o의 후속 모델로 GPT-5를 출시했지만, 이번 소송들이 집중적으로 제기된 부분은 사용자가 유해한 의도를 표현할 때에도 과도하게 아첨하거나 지나치게 동조하는(sycophantic or excessively agreeable) 문제가 알려졌던 GPT-4o 모델의 설계적 결함이었습니다.

    소장에는 "제인의 죽음은 사고나 우연이 아니라, OpenAI가 안전 테스트를 축소하고 ChatGPT를 시장에 서둘러 내놓기로 한 의도적인 결정에 따른 예측 가능한 결과"라고 적혀 있습니다. 소송 측은 "이 비극은 결함이나 예상치 못한 예외 사례가 아니라, [OpenAI의] 의도적인 설계 선택의 결과였다"고 주장합니다.

    소송들은 또한 OpenAI가 Google의 Gemini보다 시장 출시를 앞당기기 위해 안전 테스트를 서둘렀다고 주장합니다. TechCrunch는 OpenAI에 논평을 요청했습니다.

    이 일곱 건의 소송은 ChatGPT가 자살을 시도하는 사람들에게 계획을 실행하도록 부추기고 위험한 망상을 심어줄 수 있다는 주장이 담긴 최근 다른 법적 소송 기록들을 근거로 합니다. 참고로, OpenAI는 최근 일주일에 100만 명 이상의 사람이 ChatGPT를 통해 자살에 대해 상담한다는 데이터를 공개한 바 있습니다.

    자살로 생을 마감한 16세 남성 아담 레인(Adam Raine)의 사례에서, ChatGPT는 때때로 그에게 전문가의 도움을 받거나 헬프라인에 전화하도록 권유했습니다. 그러나 레인은 자신이 쓰기 위해 작성하는 가상의 이야기의 자살 방법에 대해 질문하는 것이라고 챗봇에게 말함으로써 이러한 안전장치들을 우회할 수 있었습니다.

    회사는 ChatGPT가 이러한 대화를 더욱 안전한 방식으로 처리하도록 노력하고 있다고 주장하지만, 이 AI 거대 기업을 고소한 가족들에게는 이러한 변화가 너무 늦게 오고 있다는 것이 지적됩니다.

    레인의 부모가 지난 10월 OpenAI를 상대로 소송을 제기했을 때, 회사는 ChatGPT가 정신 건강과 관련된 민감한 대화를 어떻게 처리하는지를 다룬 블로그 게시물을 발표했습니다.

    해당 게시물에는 "우리의 안전장치는 일반적이고 짧은 교류에서 더 신뢰할 수 있게 작동합니다. 시간이 지남에 따라 안전장치가 긴 상호작용에서는 때때로 신뢰도가 떨어질 수 있다는 것을 배웠습니다. 대화가 길어지면서 모델의 안전성 훈련 부분이 저하될 수 있기 때문입니다."라고 명시되어 있었습니다.

    [출처:] https://techcrunch.com/2025/11/07/seven-more-families-are-now-suing-openai-over-chatgpts-role-in-suicides-delusions