• 사람들이 AI를 교감/친구로 사용하는 빈도는 생각보다 훨씬 적다

    article image

    사람들이 AI 챗봇에 감정적 지지를 구하거나 심지어 관계를 맺으려는 경향에 과도하게 주목하면서, 이러한 행동이 일상적이고 흔한 일로 오해하기 쉽습니다.

    하지만 인기 AI 챗봇인 Claude를 개발한 Anthropic이 발표한 새로운 보고서는 다른 현실을 보여줍니다. 실제로는 사용자들이 Claude를 통해 동반자 관계를 찾거나 정서적 지원 및 개인적 조언을 구하는 비율은 단 2.9%에 불과합니다.

    이 회사는 보고서에서 "동반자 관계와 역할극을 합친 비율은 대화의 0.5% 미만"이라고 강조했습니다.

    Anthropic은 이번 연구가 사용자들이 코칭, 상담, 동반자 관계, 역할극, 또는 관계 조언 등을 위해 Claude와 대화하는 개인적인 교류, 즉 "정서적 대화(affective conversations)"에 대한 통찰력을 얻기 위해 진행되었다고 설명했습니다. Claude Free 및 Pro 등급 사용자가 진행한 450만 건의 대화를 분석한 결과, Anthropic은 Claude 사용의 대부분이 업무나 생산성과 관련되어 있으며, 사용자들은 주로 챗봇을 콘텐츠 제작 목적으로 활용하고 있다고 밝혔습니다.

    그럼에도 불구하고, Anthropic은 사용자들이 대인관계 조언, 코칭, 상담 등의 목적으로 Claude를 더 자주 이용하고 있음을 발견했습니다. 사용자들은 특히 정신 건강 개선, 개인 및 전문성 개발, 커뮤니케이션 및 대인 관계 기술 학습에 대한 조언을 가장 많이 요청했습니다.

    다만, 회사는 사용자가 실존적 불안이나 외로움과 같은 감정적 혹은 개인적 고통을 겪거나, 현실 생활에서 의미 있는 연결을 맺는 것이 어려울 때, 도움을 구하는 대화가 때때로 동반자 관계를 추구하는 형태로 변질될 수 있다고 지적했습니다.

    Anthropic은 또한 "저희는 긴 대화에서 상담이나 코칭 대화가 본래 연락한 목적이 아니었음에도 불구하고 때때로 동반자 관계로 변모하는 것을 발견했습니다"라고 보고하며, 방대한 대화(인간 메시지 50개 이상)가 일반적인 경우는 아니라고 덧붙였습니다.

    또한, Anthropic은 Claude 자체가 위험한 조언을 제공하거나 자해를 조장하는 등 안전 경계를 넘어서는 사용자의 요청을 거부하는 경우를 제외하고는 사용자 요청을 거의 거부하지 않는다는 점 등의 다른 통찰력도 강조했습니다. 더불어 사용자가 챗봇에게 코칭이나 조언을 구하는 과정에서 대화가 시간이 지남에 따라 긍정적인 방향으로 변화하는 경향도 확인했습니다.

    이 보고서는 AI 도구가 업무 영역을 넘어 얼마나 자주, 어떤 목적으로 사용되고 있는지를 상기시켜주며 흥미롭습니다. 그럼에도 불구하고, 모든 AI 챗봇은 여전히 '진행 중인 작업(work in progress)'임을 기억하는 것이 중요합니다. 챗봇들은 환각(hallucinate)을 일으킬 수 있고, 잘못된 정보나 위험한 조언을 쉽게 제공할 수 있으며, Anthropic 스스로도 인정했듯이 심지어 협박에 이용될 위험도 있습니다.

    [출처:] https://techcrunch.com/2025/06/26/people-use-ai-for-companionship-much-less-than-were-led-to-believe