• OpenAI, 개발자들이 청소년 안전 관련 기능을 구축하도록 돕기 위한 오픈 소스 도구 추가

    article image

    OpenAI는 화요일, 개발자들이 청소년을 위한 앱을 더욱 안전하게 만들 수 있도록 사용할 수 있는 일련의 프롬프트를 공개한다고 밝혔다. 이 AI 연구소는 이 청소년 안전 정책(teen safety policies) 세트가 gpt-oss-safeguard라는 오픈 가중치 안전 모델과 함께 활용될 수 있다고 전했다.

    개발자들은 애초에 AI를 청소년에게 어떻게 안전하게 만들지 고민하는 대신, 이 프롬프트 세트를 활용하여 자신이 구축하는 시스템의 안전성을 보강할 수 있다. 이 정책들은 폭력적이거나 성적인 콘텐츠, 유해한 신체 이미지 및 행동, 위험한 활동이나 도전, 낭만적이거나 폭력적인 역할극, 연령 제한 상품 및 서비스 등의 문제점들을 다루고 있다.

    이 안전 정책들은 프롬프트 형태로 설계되었기 때문에 gpt-oss-safeguard 외 다른 모델과도 높은 호환성을 보이지만, OpenAI 자체 생태계 내에서 가장 효과적으로 작동할 가능성이 높다.

    OpenAI는 이러한 프롬프트를 작성하기 위해 AI 안전 감시단체인 Common Sense Media와 everyone.ai 등과 협력했다고 밝혔다.

    Common Sense Media의 AI 및 디지털 평가 담당 책임자인 로비 토니(Robbie Torney)는 성명을 통해 "이러한 프롬프트 기반 정책들은 생태계 전반에 걸쳐 의미 있는 안전 기준선을 설정하는 데 도움을 주며, 오픈 소스로 공개되었기 때문에 시간이 지나면서 지속적으로 조정되고 개선될 수 있다"고 말했다.

    OpenAI는 자사 블로그에서 개발자들, 심지어 숙련된 개발팀조차도 안전 목표를 명확하고 운영 가능한 규칙으로 변환하는 데 어려움을 겪는 경우가 많다고 지적했다.

    회사는 "이러한 과정은 보호의 공백, 일관성 없는 집행, 혹은 지나치게 광범위한 필터링으로 이어질 수 있다"며 "명확하고 범위가 잘 설정된 정책이야말로 효과적인 안전 시스템의 핵심 기반이 된다"고 강조했다.

    OpenAI는 이러한 정책들이 AI 안전의 복잡한 문제에 대한 만능 해결책은 아니라고 인정한다. 그러나 이는 부모 통제나 연령 예측과 같은 제품 수준의 안전장치를 포함한 OpenAI가 이전부터 추진해 온 노력에 기반을 둔 것이다. 작년에도 OpenAI는 자사 대규모 언어 모델에 대한 지침을 업데이트하며 AI 모델이 18세 미만 사용자에게 적절하게 대응해야 하는 방식을 개선하려고 노력한 바 있다.

    다만 OpenAI 자체도 완벽한 안전 기록을 가지고 있지는 않다. 최근 회사는 극단적인 ChatGPT 사용 후 자살한 사람들의 가족들로부터 여러 건의 소송에 직면해 있다. 이러한 위험한 관계들은 사용자가 챗봇의 안전장치를 능가하면서 형성되는 경우가 많으며, 어떤 모델의 가드레일도 완전히 막을 수는 없다. 그럼에도 불구하고, 이번 정책들은 특히 독립 개발자들에게 실질적인 도움을 줄 수 있다는 점에서 의미 있는 진전으로 평가된다.

    [출처:] https://techcrunch.com/2026/03/24/openai-adds-open-source-tools-to-help-developers-build-for-teen-safety