최근 인공지능(AI) 기술이 워낙 빠르게 발전하다 보니, 이 기술을 어떻게 사용하고 통제해야 할지에 대한 전 세계적인 논의가 활발하게 이루어지고 있습니다.
그 중심에 유럽연합(EU)이 만든 'AI 법(AI Act)'이라는 큰 틀의 규제가 자리 잡고 있죠.
이 법 자체가 AI 기술 전반에 걸쳐 일종의 안전장치와 가이드라인을 제시하는 매우 중요한 법적 기반이 됩니다.
하지만 법이라는 것이 아무리 훌륭해도, 실제 개발 현장에서 '어떻게' 적용해야 하는지 막막할 때가 많습니다.
마치 큰 원칙은 알겠는데, 구체적인 레시피가 없는 것과 비슷하죠.
그래서 EU가 지금 가장 중요하게 다루고 있는 부분이 바로 이 '실무 수칙(Code of Practice)'을 만드는 과정입니다.
이 실무 수칙은 법이라는 큰 원칙을 개발자들이 실제로 따라 할 수 있는 구체적인 행동 지침서 같은 역할을 하게 됩니다.
특히 이 법의 초점이 맞춰지고 있는 곳이 바로 '범용 인공지능 모델(GPAI)'입니다.
쉽게 말해, 특정 목적에만 쓰이는 것이 아니라, 마치 만능 도구처럼 광범위하게 사용될 수 있는 거대하고 일반적인 AI 모델들(예를 들어, GPT 같은 모델들)을 말하는데요.
EU는 이 만능 도구들이 아무리 강력해도 '신뢰할 수 있는' 방식으로 작동하도록 만들기 위해, 이 모델들을 만든 회사들에게 구체적인 준수 방법을 협의하고 있는 것입니다.
이 과정은 단순히 법 조항을 나열하는 것을 넘어, 개발 과정의 투명성부터 위험성 평가까지 전방위적으로 깊이 파고드는 작업이라고 이해하시면 됩니다.
이러한 실무 수칙을 만들기 위해 EU는 정말 많은 사람들의 의견을 듣고 있습니다.
단순히 정부나 규제 당국만 참여하는 것이 아니라, AI 모델을 만드는 기업들뿐만 아니라, 이 모델을 활용해서 서비스를 만들려는 일반 기업들, 그리고 우리 같은 시민사회 대표들, 심지어 학계의 전문가들까지 모두가 자리를 함께하고 있는 것이죠.
이처럼 다양한 이해관계자들이 참여하는 것이 이 과정의 핵심적인 특징이자, 동시에 가장 중요한 부분입니다.
왜냐하면 만약 소수의 이해관계자들만 참여해서 규칙이 만들어진다면, 특정 산업이나 기술에만 유리하게 치우치거나, 혹은 일반 대중의 목소리가 반영되지 않은 '불완전한 규칙'이 될 위험이 있기 때문입니다.
실제로 과거에도 이런 우려가 제기되기도 했었죠.
이번 협의에서는 크게 세 가지 축을 중심으로 의견을 모으고 있습니다.
첫째는 '투명성과 저작권'입니다.
AI가 학습하는 데 사용된 데이터가 무엇인지, 특히 저작권이 있는 콘텐츠를 어떻게 사용했는지에 대한 기록을 요구하는 것이죠.
둘째는 '시스템적 위험'입니다.
여기서 '시스템적 위험'이라는 개념이 나오는데, 이는 모델 자체가 너무 크고 강력해서, 만약 이 모델에 문제가 생겼을 때 사회 전체에 미칠 파급력이 클 수 있다는 의미를 담고 있습니다.
그래서 이런 거대 모델들은 더 까다롭고 정밀한 위험 평가와 완화 조치를 요구받게 됩니다.
셋째는 이 모든 규칙을 어떻게 지속적으로 점검하고 관리할 것인지에 대한 모니터링 방안입니다.
이 모든 과정은 한 번에 끝나는 것이 아니라, 여러 번의 초안 작성과 피드백을 거치는 '반복적인 과정(iterative drafting process)'을 통해 완성될 예정입니다.
이처럼 복잡하고 다층적인 과정을 거치면서, AI 기술의 발전 속도에 맞춰 법적 기준도 유연하게 진화하려는 노력이 엿보입니다.
AI 규제는 이제 법 조항을 넘어, 개발 과정의 투명성과 이해관계자들의 폭넓은 합의를 통해 구체적인 가이드라인을 만들어가는 과정에 초점을 맞추고 있습니다.