• OpenAI, 새로운 준비 책임자(Head of Preparedness) 찾는다

    article image

    OpenAI는 컴퓨터 보안부터 정신 건강에 이르기까지 다양한 영역에서 새롭게 부상하는 AI 관련 위험을 연구할 책임이 있는 새로운 임원을 채용하고자 한다.

    X에 올라온 글에 따르면, 샘 올트만(Sam Altman) CEO는 AI 모델들이 "실질적인 도전 과제들"을 제시하고 있음을 인정했다. 여기에는 모델이 "정신 건강에 미치는 잠재적 영향"뿐만 아니라, "너무 뛰어나서 심지어 중요한 취약점을 발견하기 시작한 컴퓨터 보안 모델들"도 포함된다.

    올트만은 "세계가 최첨단 기능을 갖춘 사이버 보안 수호자들을 어떻게 역량 강화하는 동시에, 공격자들이 이를 해로운 목적으로 사용하지 못하도록 할 수 있는지 알아내는 데 도움을 받고 싶다면, 모든 시스템을 더 안전하게 만드는 이상적인 방식과 마찬가지로, 생물학적 역량을 어떤 방식으로 출시해야 하며, 심지어 자체 개선이 가능한 시스템 운영의 안전성에 대해서도 확신을 가질 수 있는지에 대해 지원하는 것을 고려해 달라"고 글을 남겼다.

    OpenAI의 Head of Preparedness 역할 공고는 이 직책이 "OpenAI가 새로운 심각한 피해를 초래하는 첨단 역량(frontier capabilities)을 추적하고 대비하는 접근 방식에 대한 프레임워크"를 실행하는 책임을 담당한다고 설명한다.

    이 역할에 대한 보상은 주식(equity)과 함께 555,000달러로 명시되어 있다.

    회사는 2023년에 처음으로 Preparedness Team 설립을 발표하며, 해당 팀이 피싱 공격과 같이 더 임박한 위험부터 핵 위협과 같이 더 추측적인 위험에 이르기까지 잠재적인 "재앙적 위험(catastrophic risks)"을 연구하는 역할을 맡을 것이라고 밝힌 바 있다.

    1년도 채 되지 않아 OpenAI는 Head of Preparedness 직책을 AI 추론에 중점을 둔 업무로 재배치했다. 또한, 다른 안전 담당 임원들 또한 Preparedness 및 안전 분야가 아닌 다른 역할로 이직한 바 있다.

    회사는 최근 Preparedness Framework를 업데이트하며, 경쟁 AI 연구소가 유사한 보호 장치 없이 "고위험(high-risk)" 모델을 출시할 경우 안전 요구 사항을 "조정할" 수도 있다고 밝혔다.

    올트만이 자신의 글에서 언급했듯이, 생성형 AI 챗봇은 정신 건강에 미치는 영향에 대해 점증하는 관심과 감시를 받고 있다.

    최근 제기된 소송에 따르면, OpenAI의 ChatGPT가 사용자들의 망상(delusions)을 강화하고, 사회적 고립을 증가시키며, 심지어 일부 사람들을 자살로 이끌었다는 주장이 제기되었다. (이에 대해 회사는 현재 ChatGPT가 감정적 어려움의 징후를 인식하고 사용자를 실제 지원 체계에 연결하는 능력을 개선하기 위해 계속 노력하고 있다고 밝혔다.)

    [출처:] https://techcrunch.com/2025/12/28/openai-is-looking-for-a-new-head-of-preparedness