인터넷 감시단체 "작년 웹사이트 29만곳 적발…전문가도 진위 구분 어려워"

(서울=연합뉴스) 손현규 기자 = 인공지능(AI)으로 만든 아동 성 착취물이 급증한 데다 훨씬 더 정교해지는 것으로 나타났다.
영국 인터넷 감시 재단(IWF)은 23일(현지시간) 발표한 연례 보고서에서 지난해 아동 성착취 사진이나 영상 등의 콘텐츠를 담은 웹페이지 29만1천270곳을 찾아내 해당 내용을 삭제했다고 밝혔다.
이는 IWF가 온라인에서 아동 성 착취물을 적극적으로 찾아내 삭제하기 시작한 2014년 이래로 최대 수치다. 첫해 3만1천건과 비교하면 830%가량 늘었다.
IWF는 지난해가 사상 최악이었다며 피해자 대부분은 여자아이였다고 설명했다.
지난해 영국 법을 위반해 AI로 만든 아동 성 착취물과 관련한 신고도 모두 245건이었다.
이는 전년 51건보다 380% 급증한 수치로, 아동 성 착취 동영상은 적었으나 사진은 7천644개에 달했다.
이 가운데 직접적인 성행위나 가학 행위 등 극단적인 아동 성 착취물이 39%로 가장 큰 비중을 차지했다.
IWF는 AI로 생성된 아동 성 착취물이 특수 브라우저로 접속하는 '다크 웹'뿐만 아니라 일반 인터넷에서도 점점 더 많이 나타나고 있고, 점차 훨씬 더 정교해지고 있다고 지적했다.
특히 소아성애자가 제작하거나 소비하는 불법 성 착취물에 AI 기술이 반영되고 있다며 "지난해 AI로 만든 동영상의 품질이 대폭 향상됐고, 기술 발전으로 모든 유형의 AI 이미지가 훨씬 더 사실적으로 됐다"고 부연했다.
그러면서 AI로 만든 아동 성 착취물 중 일부는 훈련받은 전문가조차도 실제인지 가짜인지를 구별할 수 없을 정도라고 덧붙였다.
최근 IWF는 소규모 웹사이트에서 아동 성 착취물을 탐지해 차단하는 새 프로그램을 무료로 제공하기로 했다.
IWF는 온라인에서 아동 성 착취물의 확산을 막기 위해 설립된 영국의 비영리 재단이다.
IWF의 기술 담당 비서인 피터 카일은 "온라인에서 청소년을 향한 위협이 끊임없이 진화하고 있다"며 "새로운 차단 도구가 인터넷 공간을 더 안전하게 만들 것"이라고 말했다.
son@yna.co.kr
(끝)
<저작권자(c) 연합뉴스, 무단 전재-재배포, AI 학습 및 활용 금지>