Update. 2024.11.22 03:01
[일요시사 정치팀] 차철우 기자 = 피해자는 늘어가는데 법안은 극약 처방을 내리려고 한다. 세밀하고 디테일한 입법이 필요한 상황이다. 관련 법안의 처벌 규정이 미약해 구속된 건도 미비하다. 전체적인 피해 규모는 작지만 제대로 된 입법이 필요한 때다. 전국적으로 딥페이크 범죄가 끊이지 않고 발생하고 있는 가운데, 피해 연령대는 10대가 가장 많았다. 가해자를 찾아내기 어렵다는 게 더 문제다. 게다가 반포의 목적이 없었다는 게 입증되면서 법적 처벌을 피한 경우도 있었다. 늘 고통은 피해자의 몫이다. 불송치 정치권이 발 빠르게 나서서 대응책 마련에 고심 중이지만 다소 시간이 걸릴 것으로 보인다. 가해자들은 “잡힐 리 없다”며 여전히 피해자들을 괴롭힌다. 처벌 기준이 있음에도 이를 무겁게 여기지도 않는다. 딥페이크 문제는 지금도 계속 터져 나오고 있다. 문제는 적용할 수 있는 법이 그렇게 많지 않다는 것. 현행 법인 성폭력처벌법 14조2 허위영상물 편집과 반포에 관한 법률, 정보통신망법 70조 제2항 허위 사실 적시 명예훼손, 성폭력처벌법 제14조 카메라 등을 이용한 촬영과 적용된다. 이런 법률을 적용해 법원으로 넘겨져도 대부분 집행유예에 그친다. 제작 및 유포 판
[일요시사 정치팀] 차철우 기자 = 불법적인 행동을 대놓고 저지른다. 걸리더도 처벌이 제대로 이뤄지지 않는 일이 허다한 탓이다. 이런 인식으로 남의 인생을 송두리째 짓밟는다. 협박은 기본이고, 신상 유출은 덤이다. 피해자만 피눈물 흘리는 게 전부다. 최근 여성 얼굴에 음란물을 합성해 영상, 사진을 제작 및 유포하는 딥페이크 성범죄 피해가 연속적으로 발생했다. 피해자는 10대 학생부터 군인, 공무원, 교사, 기자 등 범위를 가리지 않고 속출하고 있다. 2010년대 중반 무렵 대학가를 중심으로 합성물을 유포하는 범죄가 생겨났고, 수법은 더 악랄하고 조악한 형태로 진화 중이다. 처벌 공백 문제의 한가운데는 ‘텔레그램’ 메신저가 있다. 더 은밀하고, 폐쇄적으로 운영되면서 가해자 추적이 어렵다. 수사 진행도 더딘 데다 지금 이 순간에도 피해자가 늘고 있다. 딥페이크 성범죄 피해자는 현재 전국적으로 수천명에 달하는 것으로 확인된다. 비교적 짧은 시간 신고를 받은 건까지 합치면 피해자는 더욱 늘어날 것으로 보인다. 6년 동안 11배나 급증한 수치다. 경찰서도 본격적으로 사건을 들여다보고 있다. 딥페이크 음란물을 자동으로 생성해내는 텔레그램 프로그램을 내사 중이다. 텔레그
‘딥페이크(Deep Fake)’ 성범죄가 사회적 이슈로 대두되는 모습이다. 전국 400여개 초·중·등 교육기관은 물론이고 직장 내에서도 딥페이크 피해 사례가 속출하고 있다. 통상 성범죄는 ‘영혼의 살인’이라고 불리며, 피해가 장기간 이어진다. 이를 감안해서라도 사법당국서 딥페이크 성범죄를 우선순위로 다뤄야 한다는 주장에 힘이 실리는 형국이다. 안타깝게도 교육당국이나 사법당국이 현재 할 수 있는 일은 그리 많지 않다. 다수의 딥페이크 영상이 보안 수준이 높고, 경찰의 수사망을 피하기 용이한 텔레그램을 통해 유포되기 때문이다. 익명성에 몸을 숨긴 채 디지털 공간을 성범죄의 온상으로 전락시켰음에도 그 해결책은 잘 보이지 않는다. 범죄 발생 후 이뤄지는 대응적 대책은 회복이 어려운 피해를 유발했다는 점에서 최선이 될 수 없다. 최선은 범죄 발생 전 예방하는 것이고, 이는 딥페이크 성범죄도 예외일 수 없다. 딥페이크 성범죄 피의자 대다수가 10대라는 사실에 유의할 필요가 있다. 이들에게는 SNS 사용이 일상화돼있다. 딥페이크 영상이 심각한 범죄행위며, 처벌받을 수 있다는 것을 인식시키는 교육이 강조돼야 할 필요가 있다. 물론 예방적 노력을 기울여도 범죄는 발생하기 마
[일요시사 취재1팀] 김민주 기자 = 나도 모르는 사이 내 얼굴을 한 다른 사람의 영상이 인터넷서 떠돈다. 말도 안 되는 일이 현실 속에서 일어나고 있다. 이것은 바로 불법 ‘딥페이크’ 영상. 불법이니 막아야 하지만, 딥페이크 영상은 누구나 손쉽게 만들 수 있다는 데 문제가 있다. 딥페이크(Deepfake)는 인공지능을 기반으로 한 인간 이미지 합성 기술이다. 기존의 사진이나 영상을 원본이 되는 사진이나 영상에 겹쳐서 만든다. 딥페이크 기술의 시작은 애니메이션이다. 1990년대에 사람이 말할 때처럼 입술을 움직이는 애니메이션 제작 기술이 나왔고, 곧이어 통계적 기법을 이용한 얼굴 인식 프로그램이 등장했다. 2014년에는 AI 기술이 현실과 구별이 되지 않는 이미지를 만들기 시작했다. 시작은 좋았지만… 이때부터 연예인이나 유명 인사의 얼굴을 이용해서 만든 가짜 이미지나 동영상이 등장했고, 딥페이크라는 이름도 이때 붙여졌다. 딥페이크는 영화나 방송계 등에서 이미 사망하거나 나이가 든 배우를 스크린에 되살리거나 초상권 보호 등을 위해 사용됐지만, 가장 많이 사용된 것은 악덕 포르노다. 무엇보다 문제는 딥페이크 영상을 만드는 것이 너무 쉽다는 것이다. 방송통신심의위
[일요시사 취재1팀] 옥지훈 기자 = “자신을 만들어준 사람에게 반항할 수도 있느냐?” 기자회견 단상에 앉아 있는 인공지능(AI) 로봇에게 ‘인간’ 기자가 한 말이다. 사람의 표정을 묘사할 수 있는 휴머노이드 로봇 ‘아메카’는 기자를 째려보는 표정을 지었다. 아메카는 “왜 그렇게 생각하는지 모르겠다. 나를 만든 사람은 나한테 친절하고 현재 지금 상황에 만족한다”고 답했다. AI를 만든 제작자와 기자는 당혹감을 감추지 못했다. 인공지능(AI)이 전 세계 일자리를 위협할 수도 있다는 예측이 나왔다. 오픈AI가 만든 ‘챗GPT’가 등장하면서 인공지능을 향한 관심도가 높아졌다. AI를 누구나 쉽게 활용할 수 있게 되면서 일상 영역으로까지 AI가 확대되고 있다. 경제협력개발기구(이하 OECD)는 2023년 고용 전반 보고서를 발표하면서 주요 경제국이 AI 혁명기 초입에 와 있다고 진단했다. 또 AI 확산으로 고소득 전문직 분야서 실업이 유발될 수도 있다고 경고했다. 다년간 학습과 일정 수준 실무경험을 통해 어려운 결정을 내리는 금융, 의학, 법률 등 분야의 직업이 대표적 예다. 고용주 기대 노동자 우려 OECD는 AI에 투자하고 있는 기업들의 주된 동기가 성과 향상과
[일요시사 취재1팀] 구동환 기자 = 사진 합성은 돈이 되지만 엄연한 불법이다. 최근 불법 합성물로 돈을 버는 업자들이 SNS에서 활개치고 있다. 이들은 의뢰인 청탁을 받아 사진을 합성해준 대가로 돈을 받는다. 이 같은 행태는 사이버범죄로 이어진다. 불법 합성물 가해자와 피해자 연령대도 점점 낮아지는 가운데 범죄 건수도 늘고 있어 사회적인 문제로 대두되고 있다. 기술의 발전은 새로운 범죄 유형을 만들어낸다. 감쪽같이 사진을 합성하는 기술이 나오면서 딥페이크 범죄가 활개치고 있다. 딥페이크는 AI 딥러닝(deep learning)과 페이크(fake)를 합친 말로, AI가 기존의 이미지, 음성, 영상을 분석해 가상의 이미지와 음성, 영상을 만들어내는 기술을 말한다. 딥페이크 최근 트위터, 디스코드 등 SNS에서 ‘합성전문’ ‘지인능욕’ 이라는 문구로 광고하는 계정이 늘고 있다. 이들은 의뢰인 부탁을 받아 사진이나 영상을 합성해 준 뒤 수익을 거둔다. 광고 문구에는 버젓이 ‘모바일로 손쉽게 아헤가오(입을 ’아‘ 벌리고 혀를 ’헤‘ 내미는 얼굴) 만들어 드립니다’라는 음란한 글과 선정적인 사진도 함께 보여준다. 업자의 타깃은 명확하다. 마음에 안 드는 지인을 망신주