[일요시사 취재1팀] 구동환 기자 = 사진 합성은 돈이 되지만 엄연한 불법이다. 최근 불법 합성물로 돈을 버는 업자들이 SNS에서 활개치고 있다. 이들은 의뢰인 청탁을 받아 사진을 합성해준 대가로 돈을 받는다. 이 같은 행태는 사이버범죄로 이어진다. 불법 합성물 가해자와 피해자 연령대도 점점 낮아지는 가운데 범죄 건수도 늘고 있어 사회적인 문제로 대두되고 있다.
기술의 발전은 새로운 범죄 유형을 만들어낸다. 감쪽같이 사진을 합성하는 기술이 나오면서 딥페이크 범죄가 활개치고 있다. 딥페이크는 AI 딥러닝(deep learning)과 페이크(fake)를 합친 말로, AI가 기존의 이미지, 음성, 영상을 분석해 가상의 이미지와 음성, 영상을 만들어내는 기술을 말한다.
딥페이크
최근 트위터, 디스코드 등 SNS에서 ‘합성전문’ ‘지인능욕’ 이라는 문구로 광고하는 계정이 늘고 있다. 이들은 의뢰인 부탁을 받아 사진이나 영상을 합성해 준 뒤 수익을 거둔다. 광고 문구에는 버젓이 ‘모바일로 손쉽게 아헤가오(입을 ’아‘ 벌리고 혀를 ’헤‘ 내미는 얼굴) 만들어 드립니다’라는 음란한 글과 선정적인 사진도 함께 보여준다.
업자의 타깃은 명확하다. 마음에 안 드는 지인을 망신주거나 관심 있는 사람을 몰래 성적 대상으로 삼고자 하는 사람들이다. 음란물이 아니어도 원하는 대로 합성을 해주기도 한다. 업자들은 실제 연락처를 노출하지 않고 텔레그램 등 폐쇄적인 메신저를 통해 거래를 요구한다.
의뢰인으로부터 합성사진을 요구하는 메시지가 오면 업자들은 지인 사진을 나체 사진이나 음란 영상에 합성해 주거나 불법 합성물을 공유하는 이른바 ‘합성방’으로 안내한다. 합성방은 텔레그램이나 디스코드 등 폐쇄적인 메신저로 연결되는 통로다.
일부 계정에서는 “취미로 하는 작업으로돈은 받지 않는다”고도 안내하면서 유혹한다.
트위터, 디스코드에서도 직접 합성 관련 채팅방을 검색하자 사진은 건당 1000~2000원이었으며 영상은 건당 1만원 선으로 책정돼있었다. 딥페이크로 합성해준다는 합성 신청방이 검색되기도 했다. 거래는 주로 현금이체가 아닌 문화상품권을 통해 이뤄지는데 흔적을 남기지 않기 위한 것으로 보인다.
지인 사진을 음란물로 합성하는 데 그치지 않고 지인의 가족사진까지 입수해 합성을 의뢰하기도 한다. 부모 얼굴에 우스꽝스럽거나 기괴한 사진을 합성한 뒤 이를 유포해 지인을 사이버상에서 놀리고 왕따를 시킨다. 지인도 모자라 지인 부모까지 조롱의 대상으로 삼는다.
이는 딥페이크를 활용한 신종 사이버범죄다.
더욱 우려되는 건 딥페이크 기반 영상물 제작이 자동화되면서 마음만 먹으면 누구나 쉽게 영상 합성물을 만들 수 있다는 점이다. 최근에는 딥페이크 합성 영상을 손쉽게 만들 수 있는 스마트폰 앱도 쉽게 찾아볼 수 있어 큰 피해가 나올 수 있다.
이제는 누구나 딥페이크 피해에 노출돼있고, 또 언제든 가해자가 될 수도 있지만 딥페이크 영상물 범죄를 막기엔 기술적 대책만으로는 한계가 있다는 지적이 나온다.
네이버 지식IN 등 공개 게시판에서도 자신이 청소년이라며 “딥페이크를 제작한 적 있는데 처벌 대상이냐”는 문의 글을 심심찮게 찾아볼 수 있다.
연락처 노출 대신 메신저 아이디
가족사진까지 의뢰해 조롱거리로
실제 딥페이크 앱인 리페이스는 1억회 이상 다운로드됐으며 관련 게시물도 65만개를 넘어섰다. 앱 출시 초기에는 재미 위주의 단순한 딥페이크 영상들이 SNS에 올라왔다. 하지만 최근 들어 재미를 넘어 성적 허위 영상들이 주로 올라오면서 사회적 문제 요인으로 지적되고 있다.
실제로 지난 6월 수백장의 유명 연예인 나체 합성사진을 만들고 제작·배포한 20대에게 징역 4년이 구형됐다. 공소 사실에 따르면 취업준비생인 A씨는 지난해 11월15일부터 올해 3월까지 딥페이크 기술을 이용해 일반인 나체 사진과 연예인의 얼굴 사진을 합성해 사진 285장을 제작했다.
A씨는 해당 사진들을 포함한 총 492개의 음란물을 텔레그램 채팅방을 통해 전송·배포했다.
이처럼 음란물 목적으로 합성하다 보니 연예인들도 딥페이크 피해자가 되기도 했다. 영국 BBC는 네덜란드의 사이버보안 연구 회사인 딥트레이스 보고서를 인용해 한국 여성 연예인의 피해가 극심해졌다고 보도하기도 했다.
딥페이크 피해 사례는 K팝 여성 가수들이 25%를 차지해 미국과 영국의 여배우들(46%) 다음으로 많았다. 딥트레이스에 따르면 한국 여성 연예인들의 얼굴로 만든 딥페이크 영상은 대부분 중국에서 제작된다.
또 최근 틱톡을 중심으로 아이돌 가수의 얼굴을 복제한 일종의 딥페이크 영상이 무분별하게 양산되고 있다. 국내 아이돌 사진을 사용한 해당 영상은 인물의 입이 귀까지 찢어지거나 합성된 눈동자가 기이하게 움직이다 없어진다. 얼굴 전체가 뭉개지거나 피를 흘리는 영상도 있다.
또 아이돌 멤버의 얼굴을 노출이 과한 옷차림이나 비키니 영상에 합성한 콘텐츠도 틱톡에서 어렵지 않게 찾아볼 수 있다. 무엇보다 딥페이크의 위험성을 인식하지 못하고 하나의 ‘재미’로만 소비하는 데 우려를 나타내고 있다.
정치권에서도 딥페이크 범죄에 대해 주목하고 있다. 지난달 28일 더불어민주당 김상희 의원(국회부의장, 국회 과학기술정보방송통신위원회)이 방송통신심의위원회로부터 제출받은 자료에 따르면, 올해 1~9월 딥페이크 처리 건수는 1408건으로 지난해 6~12월(548건)보다 256% 증가했다.
특히 경찰청 자료에 따르면 딥페이크 범죄 내용은 SNS와 채팅 메신저로 일반인과 연예인 등 피해자들의 사진과 개인정보를 획득한 후 성적 허위 영상물을 제작해 판매 및 유포한 사례다. 정부 산하기관인 디지털 성범죄피해자지원센터 역시 1만1891건의 성적 딥페이크 영상을 확인한 결과, 일반인 대상으로 한 영상이 전체의 20%를 차지했다고 밝혔다.
성적 수치심을 느낄 수 있는 딥페이크 영상을 제작해 유포할 경우 법적 처벌을 받을 수 있다.
지난해 6월25일 ‘성폭력범죄의 처벌 등에 관한 특례법’ 일부 개정안이 시행되면서 딥페이크 범죄에 대한 처벌이 강화됐기 때문이다. 처벌은 강화됐지만, 딥페이크 범죄 적발 건수는 줄지 않고 있다. 가해자와 피해자 연령대도 계속해서 낮아지는 추세다.
이 때문에 피해 구제를 위한 기술 규제가 필요하다는 목소리가 나온다.
현행 ‘지능정보화 기본법’ 제31조와 제60조에 따르면 ‘인공지능(AI) 등 지능정보기술’이 사람의 생명과 신체의 안전을 저해하면 이를 제한하고, 필요하다면 국가가 그 기술을 비상정지하도록 돼있다. 그러나 이 같은 조치가 시행된 적은 없다. ‘사람의 생명 또는 신체에 대한 긴급한 위해’라는 조건이 현실과 동떨어져 개선책이 필요하다는 지적이 제기된다.
재미로?
윤덕경 한국여성정책연구원 연구위원은 “딥페이크를 이용한 성폭력은 분명히 ‘처벌되는 범죄’라는 인식을 확산할 필요가 있다”며 “수사·피해자 보호 현장에서도 딥페이크 영상물 탐지·삭제를 위한 기술 개발·도입에도 더욱 적극적일 필요가 있다”고 말했다.