현재 한국 여자 아이돌 A.V가 대량 생산되고 있는 장소

2020년 4월 17일   김주영 에디터

원래 있던 성인 영상에 AI 기술로 다른 얼굴을 합성하는 이른바 ‘딥페이크’ 기술이 여전히 악용되고 있는 지금, 한국의 여자 연예인들이 피해를 보고 있는 것으로 확인됐다.

영국 BBC는 네덜란드 사이버 보안 연구 회사 ‘딥트레이스(Deeptrace)’ 연구 보고서를 집중좀여했다.

딥트레이스가 출시한 딥페이크는 얼굴을 합성하는 것뿐만 아니라 특정 인물의 표정과 목소리까지 복사할 수 있어 성인 영상에 악용되고 있다.

지난해 딥페이크 영상만 무려 7964개인 것으로 확인됐다. 그러나 올해에는 1만 4698개로 두 배 이상 급증했다. 이 중 96%가 성인 영상이었다.

얼굴 도용 피해자는 미국·영국 여배우가 46%로 가장 많았다. 한국 여자 연예인(K-Pop 스타)은 25%였다. 대부분 성인 영상은 한국이 아닌 중국에서 만들어졌다.

헨리 아이더(Henry Ajder) 딥트레이스 연구 분석 책임자는 “딥페이크 기술에 대한 논의가 빗나갔다”며 “이 기술이 처음 등장했을 때 정치적 문제나 사기 범죄가 증가할 것이라고 우려했다. 그러나 정작 문제는 성인 영상이었다”고 지적했다.

온라인이슈팀 <제보 및 보도자료 editor@postshare.co.kr 저작권자(c) 포스트쉐어, 무단 전재-재배포 금지> 사진 = 온라인 커뮤니티, 연합뉴스