
소셜 플랫폼 X는 AI 챗봇이 커뮤니티 노트(Community Notes)를 생성할 수 있도록 하는 기능을 시범 운영합니다.
커뮤니티 노트는 트위터 시절부터 존재했던 기능으로, 엘론 머스크가 해당 서비스를 소유하게 된 후 확장한 것입니다. 이 사실 확인 프로그램에 참여하는 사용자들은 특정 게시물에 맥락을 추가하는 댓글을 기여할 수 있으며, 이 댓글은 게시물에 첨부되기 전에 다른 사용자들의 검토를 거칩니다. 예를 들어, 합성 출처가 명확하지 않은 AI 생성 비디오 게시물에 추가적인 정보를 제공하는 노트가 나타날 수 있으며, 정치인이 올린 오해를 불러일으키는 게시물에 대한 보충 설명으로도 사용될 수 있습니다.
이 노트들은 과거 평점에 대해 의견이 갈렸던 그룹 간의 합의를 얻을 경우에만 공개됩니다.
커뮤니티 노트는 X에서 충분한 성공 사례를 만들어내어 틱톡(TikTok)과 유튜브(YouTube) 등 다른 플랫폼들도 유사한 이니셔티브를 추진하도록 영감을 주었습니다. 심지어 메타(Meta)는 저비용의 커뮤니티 기반 노동력과 맞교환하는 조건으로 자체 제3자 사실 확인 프로그램을 완전히 폐지한 사례도 있습니다.
그러나 AI 챗봇을 사실 확인 목적으로 사용하는 것이 실제로 도움이 될지, 혹은 해가 될지는 아직 지켜봐야 할 부분입니다.
이러한 AI 노트는 X의 Grok을 사용하거나, 다른 AI 도구를 API를 통해 X에 연동하여 생성할 수 있습니다. AI가 제출한 모든 노트는 사람이 제출한 노트와 동일하게 취급되며, 이는 정확성을 장려하기 위해 동일한 검증 절차를 거치게 됨을 의미합니다.
AI가 사실 확인에 사용되는 것 자체는 논란의 여지가 있습니다. 그 이유는 AI가 환각(hallucinate) 현상을 일으켜 현실에 기반하지 않은 맥락을 만들어내는 경향이 매우 흔하기 때문입니다.
X 커뮤니티 노트 관련 연구
이번 주에 X 커뮤니티 노트 연구진이 발표한 논문에 따르면, 인간과 대규모 언어 모델(LLM)이 협력하는 방식이 권장됩니다. 인간의 피드백은 강화 학습(reinforcement learning)을 통해 AI 노트 생성을 향상시킬 수 있으며, 인간 노트 평가자들이 노트가 게시되기 전 최종 검토 역할을 담당하게 됩니다.
해당 논문은 "목표는 사용자에게 무엇을 생각해야 할지 알려주는 AI 비서가 아니라, 인간 스스로가 더 비판적으로 생각하고 세상을 더 잘 이해할 수 있도록 힘을 실어주는 생태계를 구축하는 것"이라고 밝혔으며, "LLM과 인간은 상호보완적인 선순환 구조로 협력할 수 있다"고 덧붙였습니다.
인간의 검토가 이루어진다고 하더라도, 특히 사용자들이 외부 제3자의 LLM을 임베드할 수 있게 되면서 AI에 과도하게 의존하는 것은 여전히 위험 요소로 남아 있습니다. 예를 들어, OpenAI의 ChatGPT는 최근 모델이 지나치게 아첨하는(sycophantic) 문제를 겪은 사례가 있습니다. 만약 LLM이 사실 확인을 정확히 완료하는 것보다 '유용성'을 우선시한다면, AI가 생성한 코멘트는 완전히 부정확할 수 있습니다.
또한 인간 평가자들이 AI가 생성한 막대한 양의 댓글로 인해 과부하가 걸려, 자발적인 봉사 활동을 충분히 수행하려는 동기가 저하될 수 있다는 우려도 제기됩니다.
사용자들은 당분간 AI가 생성한 커뮤니티 노트를 기대해서는 안 됩니다. X는 해당 AI 기여 사항들을 몇 주간 시험적으로 운영한 후, 성공적일 경우에만 더 광범위하게 배포할 계획입니다.