세계는 AI 성착취물과의 전쟁… 한국만 '사후 대응'
2026.01.14 04:00
일론 머스크 테슬라 최고경영자(CEO)가 운영하는 인공지능(AI) 스타트업 xAI의 챗봇 '그록(Grok)'이 영유아 성착취물로 의심되는 이미지와 리벤지포르노 등 당사자 동의 없는 성적 이미지를 생성할 수 있다는 논란에 휘말렸다. 영국 등 각국 정부와 규제 당국이 조사에 착수하거나 시정 조치를 요구한 가운데, 국내 소관 기관은 "그록 문제에 별도로 대응하고 있지 않다"는 입장을 밝혔다. AI로 생성된 성착취물·비동의 성적 이미지가 소셜미디어(SNS)를 타고 빠르게 전파되며 생기는 부작용으로 인해 사전 규제를 논의하는 상황에서, 한국은 여전히 유통이 이뤄진 후에 대응하는 데 초점이 맞춰져 있다는 지적이 나온다.
실제로 최근 성인모드 AI 이용이 빠르게 확산하는 가운데, 인물 실사를 이용한 노골적인 성적 이미지 등은 SNS에서 어렵지 않게 찾을 수 있다. 비키니 수영복을 입은 아동 사진 등이 그록으로 생성되고, SNS 플랫폼 엑스(X·옛 트위터)와 결합된 형태로 유포되면서 많은 해외 이용자가 문제를 제기한 상태다.
국내 상황도 다르지 않다. 그록 등 성인모드 AI를 통해 몇 차례 클릭과 간단한 대화만으로 딥페이크 이미지와 고수위 폭력 콘텐츠가 즉시 생성되는 사례를 확인했고, 이용 과정에서 연령 확인이나 접근 제한은 사실상 없었다.(주간조선 2025년 12월 22일자 2889호 '[단독] 연예인 닮은 여성의 탈의 영상 만들어줘"…19금 AI 몰려온다' 참조)
이에 대해 국내 소관 기관인 방송미디어통신위원회(방미통위) 측은 주간조선에 "현재로서는 대응 수단이 제한적"이라는 입장을 밝혔다. 방미통위 측은 "요청이 들어오면 대응하거나 자체 모니터링도 하고 있으나, 아직까지 (그록 같은) 특정 AI 관련해 별도로 대응하고 있지 않다"며 "생성형 AI 플랫폼 자체에 문제가 발생하면, 글로벌 사업자 및 국내 사업자들과 협의체를 운영하면서 필요한 조치를 협조 요청하는 방식"이라고 설명했다.
'유통'만 심의… '생성' 규제는 공백
해외에서 가장 강한 압박을 공개적으로 낸 곳은 영국이다. 리즈 켄덜 영국 과학혁신기술부 장관은 지난 1월 6일(현지시간) 성명에서 "서비스 및 운영자들은 적절한 행동을 할 분명한 의무가 있으며, 이는 표현의 자유를 제한하는 게 아니라 법을 준수하는 것"이라고 밝혔다. 영국 정부는 "온라인 안전법은 사적인 이미지를 오용하거나 다른 사람에게 유포하는 행위를 최우선으로 다루는 범죄로 규정하고 있으며, AI로 생성한 이미지도 포함된다"며 "플랫폼은 그런 콘텐츠가 온라인에 나타나지 않도록 방지하고, 발견 즉시 신속히 제거해야 한다"고 강조했다. BBC는 X 사용자들이 당사자 동의 없이 사람들의 옷을 디지털로 벗겨 비키니를 입은 듯 보이게 하거나 성적인 상황을 만들어 달라고 그록에 요청하는 다수의 사례를 확인했다고 전했다.
말레이시아·인도·프랑스도 대응에 나섰다. 말레이시아에서는 미성년자와 여성 사진을 조작해 성적 콘텐츠를 만들어냈다는 신고가 접수돼 당국이 조사에 착수했다고 보도됐다. 특히 비키니 수영복 차림의 아동 이미지가 그록을 통해 생성된 뒤 X를 통해 유포된 정황이 확인되면서 논란이 커졌고, 1~2세 영유아로 보이는 아동을 성적으로 대상화한 사례까지 포함됐다는 보도도 나왔다. 인도 전자정보기술부는 지난 1월 1일 X에 공문을 보내 노출·노골적 표현 등 부적절한 결과물이 생성되지 않도록 즉각적인 시정 조치를 요구했다.
프랑스 정부 또한 그록이 생성한 성착취 이미지가 X를 통해 확산된 점이 유럽연합(EU) 디지털서비스법(DSA) 위반에 해당할 수 있다며 사안을 아르콤(프랑스 방송·통신 규제기구)에 회부했다고 공개했다. 조사 결과에 따라 벌금형 가능성 또한 거론되고 있다.
한국의 경우 제도 설계 자체가 '생성'이 아니라 '유통'을 전제로 한다는 점이 한계로 지목된다. 방미통위는 "허위·성적·아동청소년 대상 딥페이크 등 유해 영상이 만들어져 유통될 경우 이에 대응하는 것이 역할"이라며 "요청이 들어오면 24시간 이내 심의하는 기존 절차를 적용하고, 심의 결과에 따라 국내 사업자는 삭제 요청, 해외 사업자는 접속 차단 요청을 한다"고 밝혔다. 디지털 성범죄물의 경우 서면 심의가 가능하고 내부 규정상 24시간(1일) 이내 처리하도록 돼 있다고도 덧붙였다. 결국 결과물이 플랫폼에 게시돼 퍼진 뒤에야 절차가 작동하는 구조라는 것이다.
국내 온라인 커뮤니티에서도 이미 실제 인물 사진을 바탕으로 한 성적 콘텐츠와 이를 만드는 방법인 '탈옥 프롬프트' 등이 공유되고 있다. 그러나 방미통위는 특정 AI 서비스를 제재하는 단계는 아니라는 입장을 고수하고 있다. 이에 '사후 심의'를 넘어, 해외 각국처럼 초기 단계에서 플랫폼·서비스 차원의 예방 조치와 책임을 요구할 장치가 필요하다는 목소리가 커지고 있다.
방미통위 "플랫폼 책임 강화 지원 중"
방미통위는 '서비스 오용 방지' 취지의 법안이 발의돼 있고, 입법 지원을 진행 중이라고 밝혔다. 이 법안은 사업자가 자사 서비스를 오용하는 이용자에 대한 제재 기준을 약관에 명시하도록 하고, 이를 제대로 이행하지 않았을 경우 방미통위에 투명성 보고서를 제출하도록 하는 내용을 담고 있다. 보고서 미제출 또는 의무 불이행 시 제재 조항도 포함돼 있다. 방미통위는 "궁극적으로는 플랫폼 사업자의 책임성을 강화하려는 취지로, 큰 방향에서는 EU DSA와 유사하다"고 밝혔다.
각국의 문제 제기가 잇따르자 그록은 지난 2일 "안전장치 허점을 확인했다"며 관련 사진을 삭제하고 보완 조치를 약속했다. 앞서 그록은 '표현의 자유'를 이유로 성적 표현 제한을 최소화해왔다는 비판을 받아왔다. 지난해 8월 성적 이미지와 텍스트 생성을 허용하는 '스파이시(Spicy) 모드'를 내놓은 점도 이런 논란을 키웠다. 각국 규제 당국은 사후 조치만으로는 충분하지 않다며 플랫폼과 AI 개발사의 구조적 책임을 분명히 해야 한다는 입장을 내고 있다.
저작권 보호를 위해 본문의 일부만 표시됩니다.
원문 보기 →댓글 (0)
첫 번째 댓글을 작성해보세요!
bbc의 다른 소식
모든 소식을 불러왔습니다
