• 샘 알트만, "봇들이 소셜 미디어를 '가짜'처럼 느끼게 한다"

    article image

    X 애호가이자 레딧(Reddit) 주주인 샘 올트먼은 월요일에 깨달음을 얻었다. 봇(Bot)들 때문에 소셜 미디어 게시물에 담긴 내용이 정말 인간이 작성한 것인지 구별하는 것이 불가능해졌다는 것이다.

    이러한 깨달음은 r/Claudecode 서브레딧의 게시물들(그리고 이를 공유하는 과정)을 읽으며 얻은 것이었다. 해당 게시물들은 OpenAI Codex를 찬양하는 내용이었다.

    OpenAI는 Anthropic의 Claude Code를 대체하는 소프트웨어 프로그래밍 서비스를 지난 5월에 출시했다.

    최근 그 서브레딧은 자칭 코덱스 사용자들이 코덱스로 이동했다는 발표 게시물들로 가득 찼고, 한 레딧 사용자는 "레딧에 주제를 올리지 않고 코덱스로 전환할 수 있는 것이 가능할까요?"라고 농담하기도 했다.

    이 때문에 올트먼은 해당 게시물 중 얼마나 많은 것이 실제 인간이 작성했는지 의문을 품었다. 그는 X에 "이것을 읽으며 가장 기묘한 경험을 했다. 코덱스 성장이 매우 강력하고 추세 자체가 진짜라는 것은 알지만, 모든 것이 가짜/봇이라고 가정하게 된다"고 고백했다.

    그는 자신의 추론 과정을 상세히 분석했다. "저는 여러 가지 복합적인 현상이 발생하고 있다고 봅니다. 실제 사람들이 LLM(대규모 언어 모델) 특유의 말투(LLM-speak)에 익숙해졌고, '극도로 온라인적인(Extremely Online)' 사용자들끼리 유사한 방식으로 뭉치는 경향이 있습니다. 게다가, 과대광고 주기의 '끝났다/다시 돌아왔다'는 극단성도 작용하고 있으며, 소셜 플랫폼이 참여도(engagement)를 극대화하도록 압력을 가하고 관련하여 크리에이터 수익화 방식도 존재합니다. 또한, 타 기업들의 조작 활동(astroturfed) 때문에 저 자신이 매우 민감해진 것도 한몫했고, 이 외에도 많은 요인들(아마도 봇을 포함하여)이 있습니다."

    이를 풀어서 설명하자면, 그는 인간들마저 LLM처럼 말투가 변하고 있는 현상에 의문을 제기하는 것이다. 그런데 LLM은 — OpenAI가 주도한 — 문자 그대로 인간의 커뮤니케이션 방식, 심지어 엠 대시(em dash)의 사용법까지 모방하도록 만들어진 모델이다. 또한 OpenAI의 모델들은 올트먼이 2022년까지 이사로 근무했던 레딧을 기반으로 학습했으며, 작년 회사 IPO 과정에서 그가 대주주였음이 공개되기도 했다.

    그가 지적한 대로, 팬덤을 형성하는 지속적으로 활동하는 소셜 미디어 사용자들은 특이한 행동 양식을 보이는 경향이 있다. 많은 커뮤니티는 구성원들이 좌절감을 표출하는 공간에 압도당하면 증오의 장으로 변질될 수 있다.

    올트먼은 또한 소셜 미디어 사이트와 크리에이터들이 수익 창출을 위해 '참여도'에 의존하는 인센티브 구조 자체도 문제라고 지적한다. 이 부분에 대해서는 공감대가 형성된다.

    하지만 올트먼은 r/Claudecode 서브레딧의 친(親)OpenAI 게시물들이 봇일 수 있다고 생각하는 이유 중 하나가, OpenAI 자체도 '조작 활동(astroturfed)'을 겪었기 때문이라고 고백한다. 이는 보통 경쟁사에 의해 비용이 지불되거나 어느 정도 제3자 계약자가 돈을 들여 작성하는 게시물 방식을 의미하며, 이를 통해 경쟁사는 부인할 여지를 확보하게 된다.

    물론 조작 활동에 대한 직접적인 증거는 없지만, GPT 5.0을 출시한 후 OpenAI 서브레딧들이 해당 회사를 어떻게 공격했는지는 목격된 바 있다. 충성 지지자들의 환호보다는 분노에 찬 게시물들이 더 많은 추천을 받았다. 사용자들은 GPT의 개성 문제부터 작업을 완료하지 못하고 크레딧을 소진하는 방식까지 모든 것을 비난하기 위해 레딧과 X로 향했다.

    이러한 불안정한 출시 다음 날, 올트먼은 r/GPT에서 질문 받기(AMA) 세션을 열고, 출시 문제에 대해 사과하며 개선을 약속했다. GPT 서브레딧은 이전의 열광적인 상태를 완전히 회복하지 못했으며, 사용자들은 여전히 GPT 5.0의 변화에 대해 불만을 지속적으로 게시하고 있다. 이들은 인간일까, 아니면 올트먼이 암시하듯이 어떤 면에서는 조작된 존재일까?

    올트먼은 "순효과적으로, AI 기반 트위터나 AI 기반 레딧은 1~2년 전과는 달리 느껴진다"고 평했다.


    요약하자면, 이 글은 소셜 미디어상의 콘텐츠 진위성과 인간의 진정성에 대한 의문을 제기합니다. ChatGPT와 같은 AI 기술의 급속한 발달이 콘텐츠 생산 방식을 근본적으로 변화시켰으며, 이러한 변화는 '진짜'와 '가짜' 사이의 경계를 모호하게 만들고 있습니다.

    핵심 메시지는 다음과 같습니다:

    1. AI로 인한 진위성 위협: AI가 매우 사실적이고 설득력 있는 콘텐츠를 대량 생산하면서, 사용자들은 어떤 정보가 인간의 창의적인 의도에서 비롯되었는지, 혹은 단순한 알고리즘의 산물인지 구별하기 어려워졌습니다.
    2. 디지털 신뢰의 위기: 이로 인해 디지털 공간 전반에 걸쳐 정보에 대한 신뢰가 하락했습니다. 사람들은 콘텐츠를 접할 때 비판적인 시각과 높은 수준의 경계심을 가져야 할 필요성을 느끼게 되었습니다.
    3. 인간의 역할 재조명: 글은 기술 발전 속에서도 여전히 인간의 고유한 창의성, 감성, 경험이 담긴 서사(Narrative)가 중요함을 역설합니다. 진정한 연결과 이해는 기술적 알고리즘을 넘어서는 인간적인 상호작용을 통해서만 가능하다는 메시지를 전달합니다.

    [출처:] https://techcrunch.com/2025/09/08/sam-altman-says-that-bots-are-making-social-media-feel-fake