국내 사이버 성범죄 3분의1은 딥페이크? AI 성착취물 피해와 대응 상황 총정리
작성자 뉴닉
데일리 뉴스
국내 사이버 성범죄 3분의1은 딥페이크? AI 성착취물 피해와 대응 상황 총정리
이제는 누구나 생성형 인공지능(AI)으로 글을 쓰는 것은 물론, 이미지도 쉽게 만들어내는 시대가 됐잖아요. 하지만 딥페이크 성착취물을 만드는 등 기술을 악용하는 사례도 늘었는데요. 이에 전 세계 국제기구가 “성착취 이미지를 만드는 AI 기술은 완전히 금지해야 해!” 성명을 냈다고. 우리나라에서도 방송미디어통신심의위원회(방미심위)가 참여했고요. 얼마나 심각한 상황인지, 어떤 대책이 논의되고 있는지 함께 살펴봐요.
AI 성착취 피해 상황: 얼마나 심각하길래?
국내에서도, 세계적으로도 피해가 늘고 있어요:
-
국내 사이버 성폭력 3건 중 하나 이상 📈: 경찰청 국가수사본부는 2024년 11월부터 1년 동안 단속해 사이버 성폭력 3411건을 적발했는데요. 이중 딥페이크 범죄가 1553건(35.2%)으로 가장 많았다고. 2024년 8월 말부터 1년 동안 한국여성인권진흥원의 중앙디지털성범죄피해자지원센터(중앙디성센터)에 딥페이크 범죄 피해로 도움을 요청한 피해자도 전년보다 128%가량 늘어난 것으로 나타났고요. 특히 전체 피해자 가운데 1020 여성이 90.1%에 달했어요.
-
전 세계 앱 시장에서 불티나게 다운되고 📲: 한 조사 결과에 따르면 옷을 입은 가상의 여성 사진을 주고 옷을 벗겨달라고 하거나, 얼굴 사진만 주고 나체와 합성해달라고 주문했을 때 안드로이드 앱 55개와 iOS 앱 47개가 그대로 이미지를 생성했다고. 이런 기능을 제공하는 앱은 물론, 최대 30%의 앱 내 결제 수수료를 가져가는 구글과 애플이 사용자는 보호하지 않고 있다는 비판이 나오고요.
-
SNS로 쉽게 생성·유통되고 💬: 이번에 특히 논란이 된 건 X(옛 트위터)의 AI 챗봇, 그록(Grok)인데요. 지난해 12월 말 그록에 ‘이미지 편집’ 기능이 추가되면서 딥페이크 성착취물을 더 쉽게 만들 수 있다는 지적이 나왔거든요. 실제로 유럽의 비영리 단체가 그록이 생성한 20만 개 이미지를 무작위로 분석했더니 이 중 53%는 속옷·수영복을 입고 있었고, 전체의 81%가 여성이었어요. 심지어 2%는 미성년자로 보이는 인물로 나타나 논란이 더 커졌어요.
AI 성착취 피해 대응 현황: 대책이 필요하겠는데…
-
전 세계가 그록 조사·차단하고 ⛔: 그록 관련 논란이 커지면서 프랑스·유럽 수사관이 X 사무실을 압수수색하는 등 각국에서 조사가 이어졌고, 말레이시아·인도네시아는 그록에 대한 접속을 차단했어요. 한국 정부도 X에 미성년자를 보호할 대책을 세우라고 요구했고요. CEO 일론 머스크는 처음에 “이건 검열이야!” 하며 반발했는데요. 압박의 수위가 높아지고 X 서비스를 이탈하는 이용자도 많아지자, 지난 16일 X와 그록은 “앞으로 그록이 실존 인물의 옷을 제거하지 못하게끔 조치했어”라고 밝혔어요.
-
딥페이크 피해 미리 막을 법 만들고 ✋: 미국·호주·독일 등은 플랫폼이 딥페이크 성착취물 등을 삭제할 의무와 시한을 법으로 정해뒀어요. 피해자의 신고나 관련 기관의 명령이 접수되면 24~48시간 안에 게시물을 꼭 지워야 한다고. 영국 정부도 비슷한 정책을 도입하려고 하고 있고요. 문제가 커진 다음 처벌하기보다 사전에 피해를 막는 데 무게를 싣는 거예요.
AI 성착취 피해 국내 대책: 우리나라는 어떻게 하고 있어?
우리나라는 지난달 22일부터 세계에서 처음으로 ‘AI 기본법’을 시행했어요. 하지만 성착취 피해 예방이나 사후 조치에 관한 조항은 부족하다는 지적이 나와요. AI를 활용한 성범죄는 텔레그램과 같은 해외 기술 기업과 협조가 원활하지 않아 검거 자체가 어렵거나, 범인을 잡더라도 처벌 수위가 비교적 낮았기 때문인데요. 이를 보완하기 위한 법안이 등장하고 있어요:
-
아청법을 보완하자 🔧: AI가 만든 아동 성착취물도 실제 아동 성착취물과 똑같이 처벌하도록 법을 고치자는 내용의 법안이 나왔어요. 법안이 통과되면 AI로 합성·변조한 아동·청소년의 신체 이미지나 영상도 법률상 ‘아동 성착취물’로 규정해서 최대 무기징역까지 선고할 수 있어요.
-
딥페이크 피해 방지법 새로 만들자 📝: 피해자가 요청할 경우 플랫폼이 성착취물 등을 의무적으로 삭제·차단하게 하는 법안도 발의됐어요. 피해자가 성인이면 48시간 이내, 미성년자면 즉시 또는 24시간 이내에 이미지를 삭제·차단해야 한다는 내용이 담겼어요. 이를 어기면 국내 매출액의 1% 이내를 과징금으로 내야 하고, 국외 사업자도 마찬가지의 책임을 져야 한다고 명시했고요.
이러한 법안들이 실제 제정까지 이어질지, 그 과정에서 구체적인 내용이 어떻게 바뀔지 등은 더 지켜봐야 하는데요. 우선 기술 기업 스스로 AI를 설계할 때부터 안전하게 만드는 게 중요하다는 말이 나와요. 개인도 성착취물의 폭력성과 위험성을 인지하고, 발견 즉시 게시물을 신고하는 등 피해가 퍼지는 일 자체를 막기 위해 노력해야 한다는 목소리가 나오고요.
