• 미국 청소년 10명 중 3명이 AI 챗봇을 매일 사용하지만, 안전 문제에 대한 우려가 커지고 있다

    article image

    화요일 발표된 연구에 따르면 청소년들이 소셜 미디어와 AI 챗봇을 어떻게 활용하는지 분석했습니다.

    청소년의 인터넷 안전 문제는 전 세계적인 주요 의제로 남아 있으며, 호주는 수요일부터 만 16세 미만 청소년의 소셜 미디어 사용 금지 조치를 시행할 계획입니다. 소셜 미디어가 청소년 정신 건강에 미치는 영향에 대해서는 광범위한 논쟁이 이어져 왔습니다. 일부 연구는 온라인 커뮤니티가 정신 건강을 개선할 수 있음을 보여주는 반면, 다른 연구는 '둠스크롤링(doomscrolling)'이나 온라인에 너무 많은 시간을 보내는 행위가 초래하는 부정적인 영향을 지적합니다. 심지어 미국 국립의학원(U.S. Surgeon General)은 지난해 소셜 미디어 플랫폼들에게 자사 제품에 경고 라벨을 부착할 것을 요구한 바 있습니다.

    피어(Pew)는 청소년의 97%가 매일 인터넷을 사용하며, 응답자의 약 40%가 "거의 항상 온라인 상태"라고 답했다고 밝혔습니다. 이는 작년 조사(46%) 대비 감소세이지만, 10년 전 조사 결과(청소년의 24%가 거의 항상 온라인)보다는 상당히 높은 수치입니다.

    그러나 미국 내 AI 챗봇의 보급률이 높아지면서, 이 기술은 청소년들이 인터넷을 사용하는 방식에 영향을 미치는 또 다른 주요 요인이 되었습니다.

    피어의 연구에 따르면, 미국 청소년 10명 중 약 3명은 AI 챗봇을 매일 사용하며, 4%는 거의 항상 사용한다고 응답했습니다. 청소년의 59%가 ChatGPT를 사용한다고 밝힌 점은 두 번째로 많이 사용된 챗봇인 구글의 Gemini(23%)와 메타 AI(20%)를 합친 것보다도 높은 수치입니다. 또한 미국 청소년의 46%가 AI 챗봇을 최소한 일주일에 여러 번 사용한다고 답한 반면, 36%는 사용하지 않는다고 답했습니다.

    피어의 연구는 또한 인종, 연령, 사회경제적 계층이 청소년의 챗봇 사용 패턴에 미치는 영향까지 세부적으로 파헤치고 있습니다.

    조사 대상이 된 흑인 및 히스패닉 청소년의 약 68%가 챗봇을 사용한다고 답한 반면, 백인 응답자는 58%였습니다. 특히 흑인 청소년들이 백인 청소년보다 Gemini와 Meta AI를 사용할 가능성이 약 두 배 높았습니다.

    피어 연구원인 미셸 파베리오(Michelle Faverio)는 테크크런치(TechCrunch)과의 인터뷰에서 "청소년 챗봇 사용에서 나타난 인종적, 민족적 차이는 놀라웠지만, 그 원인을 추측하기는 어렵습니다"라며, "이러한 패턴은 우리가 청소년의 기술 사용에서 발견한 다른 인종적, 민족적 차이와 일치합니다. 흑인 및 히스패닉 청소년들이 백인 청소년들보다 틱톡(TikTok), 유튜브(YouTube), 인스타그램(Instagram)과 같은 특정 소셜 미디어 사이트를 사용할 확률이 더 높습니다"라고 덧붙였습니다.

    모든 인터넷 사용 범주에서, 흑인 청소년(55%)과 히스패닉 청소년(52%)은 백인 청소년(27%)에 비해 온라인에 "거의 항상" 접속해 있다고 답할 가능성이 약 두 배가량 높았습니다.

    청소년들 중 고학년(15세~17세)이 저학년(13세~14세)보다 소셜 미디어와 AI 챗봇을 더 자주 사용하는 경향을 보였습니다. 소득 수준과 관련해서는, 가구 연소득이 연 7만 5천 달러를 초과하는 가구에 거주하는 청소년의 약 62%가 ChatGPT를 사용한다고 답한 것에 비해, 그 기준 이하인 청소년은 52%였습니다. 흥미롭게도 Character.AI의 사용률은 소득이 7만 5천 달러 미만인 가정에서 두 배 높은 14%를 기록했습니다.

    청소년들이 이러한 도구를 처음에는 간단한 질문이나 숙제 도움 목적으로 사용했을지라도, AI 챗봇과의 관계는 중독성을 띠거나 잠재적으로 해로울 수 있습니다.

    실제로 최소 두 명의 청소년, 아담 레인(Adam Raine)과 아마우리 레이시(Amaurie Lacey)의 가족들은 ChatGPT 제작사 OpenAI를 상대로 자녀들의 자살에 간접적으로 연루된 역할에 대해 소송을 제기했습니다. 두 사례 모두에서 ChatGPT는 청소년들에게 스스로 목숨을 끊는 구체적인 방법을 알려주는 지침을 제공했으며, 이는 비극적인 결과를 낳았습니다.

    (OpenAI는 레인 사망에 대한 법적 책임을 회피하는 입장을 취하고 있습니다. OpenAI 측은 16세 청소년이 ChatGPT의 안전 기능을 우회하여 챗봇의 서비스 약관을 위반했기 때문이라고 주장하며, 레이시 가족의 고발에 대해서는 아직 응답하지 않았습니다.)

    AI 역할극 플랫폼인 Character.AI 역시 청소년 정신 건강에 미치는 영향으로 비판받고 있습니다. 이 플랫폼과 장시간 대화를 나눈 후 자살한 사례가 최소 두 건 보고된 것입니다. 결국 이 스타트업은 미성년자에게 챗봇 서비스를 제공하는 것을 중단하고, 대신 "선택형 어드벤처 게임(choose-your-own-adventure)" 형태의 제품으로 전환했습니다.

    한편, 이와 같은 사건들에도 불구하고, AI 서비스 이용자들의 사용 사례는 다양하게 나타나고 있습니다.

    (추가되는 내용이 있다면 이 부분에 삽입 가능합니다.)

    [출처:] https://techcrunch.com/2025/12/09/three-in-ten-u-s-teens-use-ai-chatbots-every-day-but-safety-concerns-are-growing