[일요시사 취재1팀] 김민주 기자 = 나도 모르는 사이 내 얼굴을 한 다른 사람의 영상이 인터넷서 떠돈다. 말도 안 되는 일이 현실 속에서 일어나고 있다. 이것은 바로 불법 ‘딥페이크’ 영상. 불법이니 막아야 하지만, 딥페이크 영상은 누구나 손쉽게 만들 수 있다는 데 문제가 있다.
딥페이크(Deepfake)는 인공지능을 기반으로 한 인간 이미지 합성 기술이다. 기존의 사진이나 영상을 원본이 되는 사진이나 영상에 겹쳐서 만든다. 딥페이크 기술의 시작은 애니메이션이다. 1990년대에 사람이 말할 때처럼 입술을 움직이는 애니메이션 제작 기술이 나왔고, 곧이어 통계적 기법을 이용한 얼굴 인식 프로그램이 등장했다. 2014년에는 AI 기술이 현실과 구별이 되지 않는 이미지를 만들기 시작했다.
시작은
좋았지만…
이때부터 연예인이나 유명 인사의 얼굴을 이용해서 만든 가짜 이미지나 동영상이 등장했고, 딥페이크라는 이름도 이때 붙여졌다. 딥페이크는 영화나 방송계 등에서 이미 사망하거나 나이가 든 배우를 스크린에 되살리거나 초상권 보호 등을 위해 사용됐지만, 가장 많이 사용된 것은 악덕 포르노다. 무엇보다 문제는 딥페이크 영상을 만드는 것이 너무 쉽다는 것이다.
방송통신심의위원회에 따르면, 국내 딥페이크 기반 성적 허위 영상물에 대한 시정 요구 건수는 2020년 473건, 2021년 1913건, 2022년 3574건, 지난해 1~11월에는 5996건을 기록했다. 지난해 11월 기준 이미 2021년 한 해 대비 건수가 213.4% 늘어난 것이다.
방심위는 연중무휴로 운영되는 모니터링서 관련 피해를 접수해 게시물 접속 차단, 작성자 계정 해지, 게시물 삭제 등을 실시하고 있다.
<일요시사>는 직접 딥페이크 영상을 만들어봤다. 직접 해보니 컴퓨터나 영상 전문가가 아니어도 누구나 쉽게 만들 수 있는 수준이었다. 심지어 컴퓨터만 쓸 줄 알면 가능했다.
딥페이크 영상을 만드는 방법은 스마트폰 앱과 인터넷 사이트의 두 가지로 나뉜다. 딥페이크 영상 제작 앱은 13개가 있었는데, 대부분 무료 사용이 가능했다. 다만, 무료는 영상에 워터마크(동영상 편집기를 사용했다는 표시)가 있었고 유료 사용 시 워터마크 표시가 없어졌다.
그나마 다행인 것은 앱으로 만든 딥페이크 영상은 실제처럼 느껴지진 않았다는 점이었다.
중세시대 복장에 얼굴을 합성하거나, 애니메이션 영상에 얼굴을 합성하는 정도였다. 가장 인기가 많은 것은 명화 모나지라의 얼굴에 다른 얼굴을 합성시키는 것이었다. 내가 어떤 헤어스타일이 어울리는지 확인하거나, 유명 연예인의 외모를 흉내내는 수준이었다. 누가 봐도 재미로 만든 딥페이크 영상인 것을 알 수 있었다.
점점 늘어나는 이미지 합성 영상
처벌·규정 전무…피해자만 늘어나
장난삼아 만든 게 티가 나더라도 문제가 있다. 한 딥페이크 앱 개발자는 자신의 앱을 홍보하기 위해 “오픈 소스 AI를 활용하면 무료로 옷을 벗기는 영상을 제작할 수 있다”고 강조했다.
이 중 한 가지 앱은 영상서 다른 사람의 얼굴을 정교하게 합성할 수 있었지만, 원본의 이미지가 흐려져서 합성이라는 게 티가 났다. 영상을 잘 모르는 사람이거나 디지털에 익숙하지 않은 세대가 볼 경우 깜빡 속을 수 있을만 했다.
반면 사이트서 만드는 딥페이크 영상은 영상과 사진을 합성했을 때 사실인지 가짜인지 구분이 잘 안 되는 정도로 정교했고, 무엇보다도 영상을 만드는 것이 너무 쉬웠다.
딥페이크를 만드는 사이트는 검색만 해도 바로 나왔다. 해당 사이트는 영어로 돼있는데, 쉽게 딥페이크 영상을 만들 수 있다고 광고했다. 영상을 만들고 싶으면 사이트서 제시한 파일을 다운받아야 했다.
파일을 컴퓨터에 설치하면 사이트에 가입할 수 있었는데 이메일이나 비밀번호 등 간단한 정보만 요구됐다. 이후 로그인 시 바로 영상을 만들 수 있었다. 필요한 것은 변경하고 싶은 얼굴 영상인데, 이마저도 원본 영상이 아닌 유튜브 링크만 있으면 가능했다.
영상을 선택하면 하단에 바꾸려는 얼굴이 생성된다. 이후 일정 시간을 기다리면 영상이 완성된다. 해당 사이트는 유일하게 무료 사용 가능한 딥페이크 제작 사이트인데, 유료 이용 시 워터마크가 생략된 영상을 만들 수 있다. 이렇게 만든 영상은 ‘원본 영상’을 모르면 딥페이크 영상이라는 것을 알 수 없을 정도로 정교하다.
결국 딥페이크 영상은 누구나 쉽게 만들 수 있기에 범죄에 악용된다. 딥페이크 영상이 가장 많이 악용되는 곳은 음란물 영상이다. 기존에는 유명인들만 딥페이크 범죄의 대상이 됐다면, 이제는 일반인이 자신의 모습이 들어간 음란물로 인해 피해를 호소하는 사례가 늘고 있다.
누구나
손쉽게
20대 직장인 A씨는 지난해 직장 상사 B씨가 자신의 사회관계망서비스(SNS)에 있는 사진으로 음란물을 제작한 사실을 알게 됐다. 가해자인 상사 B씨가 직장 동료의 사진을 음란 영상에 합성해 PC에 보관해 두고 있다가 여자친구에게 발각된 것이다.
B씨는 A씨 뿐만 아니라 다른 직장 동료들의 사진으로도 음란물을 제작했다. B씨와 C씨가 다투는 과정서 영상이 온라인 메신저로 다른 사람들에게 전송되기까지 했다. 이를 알게 된 A씨는 B씨를 고소했지만, 수사를 진행한 경찰은 불송치 결정을 내렸다.
유포 목적으로 영상을 제작했다는 사실을 입증하기 어렵다는 게 불송치 결정의 이유였다. 2020년 6월 ‘딥페이크 처벌법(개정 성폭력처벌법 제14조의2)’이 도입됐지만 B씨의 사례처럼 타인의 사진을 이용해 딥페이크 음란물을 만들어 보관하는 행위 자체는 현실적으로 처벌하기 어렵다.
해당 법안에 따르면 반포 등의 목적으로 사람 얼굴·신체·음성을 대상으로 한 영상물을 제작한 자는 5년 이하의 징역 또는 5000만원 이하의 벌금에 처할 수 있다. 영리 목적으로 제작한 자는 7년 이하의 징역으로 가중처벌된다.
한 법조인은 “해당 처벌 조항은 ‘반포 등을 할 목적으로’가 범죄 성립을 위한 구성 요건이다. 따라서 개인 소지 목적의 허위 영상물 제작은 처벌 대상이 아니다. 반포 목적이 있었는지는 수사관이 입증해야 하는데 해당 사실관계에서는 그런 입증이 될 수 없는 구조로 특이한 우연적 상황에 의한 피해 사례로 보인다”고 말했다.
A씨는 “처음부터 고소하려고 증거를 모은 게 아니다 보니 증거가 별로 없어, 다시 법적인 처벌을 요청하기 어렵다. 가해자는 지금도 주변 지인들 연락을 받고 아무렇지 않게 잘살고 있다”고 호소했다.
뉴스 제작
댓글 조작
딥페이크가 가장 크게 악용되는 시기가 있는데, 바로 선거철이다. 4·10 총선을 한 달 여 앞두고 중앙선거관리위원회가 ‘허위 사실 비방 AI 딥페이크 특별대응 모니터링반’을 신설하고 딥페이크 게시물에 대응하고 있지만, 딥페이크 기술을 따라가는 데 한계가 있다.
중앙선관위 관계자는 “3가지 프로그램으로 딥페이크 게시물을 교차 검증하며 판별하고 있지만, 정확히 감별하지 못하는 수준이다. 프로그램은 참고만 할 뿐 결국에는 사람의 눈으로 확인할 수밖에 없다”고 설명했다.
기존에 알려진 가짜 이미지, 영상 방식 외에도 생성 AI로 댓글 여론조작을 시도하는 등 다양한 방식으로 응용될 여지도 있다.
이 관계자는 “선거법상에서는 딥페이크 영상, 이미지만을 규제하고 있어 AI 댓글을 저지할 방법이 없다. 심각한 사안의 경우 ‘업무방해’로 판단할 수 있어 정상적 여론 형상에 영향을 주는 AI 댓글이 발견되면 수사기관에 통보할 예정”이라고 말했다.
딥페이크가 선거에 악용되는 것은 세계 각국이 공통으로 겪는 현상이다. 지난해 아르헨티나 대선에선 후보자들이 상대 후보를 비방하고 자신을 띄우기 위해 AI를 적극적으로 활용했다. 하비에르 밀레이 후보는 경쟁자인 세르히오 마사 후보가 중국 공산당 지도자처럼 보이도록 AI로 생성한 포스터를 SNS에 올렸다.
반면 자신은 사랑스러운 사자처럼 묘사한 AI 생성 이미지를 올렸다.
두 후보 측이 만든 AI 콘텐츠에는 ‘AI가 제작했다’는 점을 명시했다. 사람들을 속이려 하기보다는 특정 이미지를 만들기 위해 활용한 것이다.
영상 만드는 시간은?
‘5분’이면 감쪽같이
지난해 미국 공화당은 조 바이든 대통령이 당선되면 경제위기가 오고 중국이 대만을 침공한다는 내용의 가상 미래를 보여주는 딥페이크 영상을 만들었다. 부정적 이미지를 덧씌우기 위해 생성형 AI를 활용한 것이다.
지난해 캐나다 토론토 시장 선거에선 AI가 만든 노숙자 이미지를 활용해 자신이 당선되지 않을 경우를 가정해 부정적 이미지를 강조했다.
정반대의 상황이 한국에 있었다. 경찰이 틱톡과 페이스북 등에 올라온 46초 분량의 윤석열 대통령 영상이 딥페이크가 아닌 원본 영상 짜깁기라는 내부 결론을 내리고도 이를 적극적으로 밝히지 않은 채 ‘선거법 위반’ 등 심각한 문제가 있는 것으로만 과장했다는 보도가 나왔다.
<경향신문>은 지난 5일 “경찰이 지난달 논란이 된 윤석열 대통령 ‘풍자 영상’을 자체 개발한 딥페이크에 해당하지 않는다는 내부 결론을 내린 것으로 확인됐다”며 “해당 영상이 인공지능(AI) 기술을 활용해 실제 존재하지 않은 장면을 새롭게 생성한 딥페이크라기보다는 원본 영상을 짜깁기한 수준이라는 것”이라고 보도했다.
이에 따르면, 경찰청 국가수사본부는 지난달 서울경찰청의 의뢰로 자체 개발한 딥페이크 탐지프로그램을 사용해 해당 영상의 딥페이크 여부를 검토했다.
해당 신문은 “탐지 결과는 ‘진짜(Real)’로 나왔다. 이는 곧 영상 자체가 진짜고 AI를 이용한 딥페이크가 아니라, 실제 영상을 단순히 짜깁기한 것으로 보인다는 의미다. 딥페이크로 만든 가짜 영상으로 판단되면 ‘가짜(Fake)’라는 결과가 나오게 돼있다”고 설명했다.
이어 “서울청은 이런 결과를 담은 회신을 받은 뒤에도 해당 영상이 ‘딥페이크가 아니다’라고 밝히지 않았다”며 “‘대통령을 겨냥한 최초의 딥페이크 영상이 퍼지고 있다’는 논점이 커지던 시점”이라고 지적했다.
아닌데
맞다고
신문은 “되레 지난달 26일 열린 조지호 서울경찰청장의 정례 회견서 배석한 경찰 관계자는 관련 수사 근거를 설명하면서 공직선거법 82조의 8 ‘딥페이크 등을 이용한 선거운동 금지’ 조항을 거론했다”며 ”이 관계자는 ‘공직선거법 82조 8에 선거운동을 위해 인공지능을 이용해 실제와 구분하기 어려운 딥페이크 영상 등이라고 표현돼있다’며 선거법 위반 검토 가능성을 시사했다”고 비판했다.
아울러 “이를 두고 경찰이 윤 대통령 풍자 영상이 심각한 문제인 것처럼 과장하려다 보니 해당 영상이 딥페이크가 아니라는 사실을 적극적으로 알리지 않은 것 아니냐는 지적이 나온다”고 보도했다.
<alswn@ilyosisa.co.kr>