(210309) AI 기술의 심각한 악용, 딥페이크
2021년
3월
작성자
손 예진
작성일
2023-01-02 03:46
조회
11
딥페이크(Deep Fake), 즉 합성 영상이 발달되면서 사이버 성범죄가 속수무책으로 증가하였다. 최근 SBS 방송사의 프로그램인 ‘그것이 알고 싶다’에서 ‘보고, 듣고, 의심해라. 가짜와의 전쟁, 딥페이크’라는 제목으로 합성 기술에 대해 언급해 큰 관심을 받았다. 방송에서 딥페이크가 언급되자 대중들 사이에서 크게 이슈화되었고, 많은 사람이 이 기술이 악용되어 범죄가 일어나고 있음을 알게 되었다.
딥페이크란, 인공지능의 한 분야인 딥러닝(Deep learning)을 활용해 사람의 얼굴이나 특정 부위를 합성한 가짜 동영상을 만들어내는 기술을 말한다. IT 산업은 물론 다양한 산업에서 쓰이고 있는 인공지능 기술 중 하나인 딥페이크는 윤리적인 면에서 긍정적인 반응을 보이고 있다. 예를 들어, 이미 사망한 사람의 모습을 AI로 재현해 가족들을 위로하고 감동을 전할 수 있으며, 신원 보호가 필요한 사람들을 위한 안전장치가 되기도 한다.

실제로 지난해 12월 케이블 음악 채널 엠넷에서는 ‘다시 한번’이라는 프로그램을 통해 혼성 그룹 거북이의 리더인 고인 터틀맨의 무대를 되살려 선보였다. 거북이의 무대를 위해 제작진은 먼저 실제 터틀맨과 비슷한 체형을 가진 모델을 선정하여 모델의 동작을 촬영했다. 이후 터틀맨의 과거 사진과 동영상 자료들을 모아 AI를 학습시켰고, 최적의 얼굴 데이터를 추출했다. 이 얼굴 데이터들을 모델의 동작과 합성하여 터틀맨의 자연스러운 모습을 구현해냈다. 이는 딥페이크의 대표적인 알고리즘인 ‘생성적 적대 신경망(GAN)’을 활용한 사례이다.
이러한 딥페이크 기술은 역사적 인물들을 살아 움직이는 것처럼 재현하기도 했다. 해당 기술로 유관순 열사와 윤봉길 의사가 고개를 돌리며 웃는 모습을 동영상으로 담아냈다. AI를 이용해 맞춤형 알고리즘으로 정지된 얼굴 사진을 자연스럽게 움직이는 얼굴 동영상으로 변환시킨 것이다. 표정 변화까지 완벽하게 구현해냈다.
위와 같이 감동적이고 추모적인 사례들도 있지만, 딥페이크를 악용하는 범죄가 나날이 증가하고 있다. 특히 인터넷이 발전해 사이버 성범죄가 많이 발생하고 있다. 딥페이크 기술을 이용해 얼굴을 합성하여 음란물을 만들고, 판매 혹은 협박을 하는 일이 벌어졌다. 딥페이크에 의한 불법 음란물이 제작되면서 연예인과 유명인은 물론 일반인들까지 많은 사람이 피해를 보고 있다.
경기대학교 범죄심리학과 이수정 교수는 “연예인 등 유명인을 대상으로 한 딥페이크 음란물은 수익을 노린 공급자, 즉 기술자들이 상품을 제작, 배포하고 이를 헤비 유저(다량 이용자)들이 구매하는 구조”라며 “공급자들은 금전적 이득을, 수요자들은 성적인 만족을 취한다는 목적이 가장 일반적 형태”라고 설명했다. 다시 말해, 딥페이크 기술을 악용하여 불법 음란물 시장이 형성되었다는 의미이다.
또한, 이수정 교수는 일반인을 대상으로 한 불법 음란물에 대해서도 언급했다. “일반인 대상 딥페이크 범죄는 악의적, 적대적 목적을 갖고 불법 영상을 만드는 공급자들이 대다수로 보인다.”라며, 자신의 성적 만족과 재미를 충족시키기 위해 소비하는 경우도 있다고 말했다. 다른 전문가 또한 평소 싫어하던 사람을 대상으로 성적 웃음거리를 만들려는 목적을 가지고 있을 수 있다고 언급하면서 이는 조롱과 아울러 본인이 피해자보다 우월한 존재임을 확인하는 심리도 적용했을 수 있다고 설명했다.
그뿐만 아니라, 퀄리티는 크게 중요하지 않다는 시각도 나왔다. 정교한 화면보다 만들고 유포하는 것에 의미를 두었기 때문이다. 게다가 온라인상에서 딥페이크 영상 제작 방법이 공유되면서 “무료로 합성해준다.”, “연습으로 만들어 드린다.”와 같은 게시물이 늘어나고 있다.

프로그램 ‘그것이 알고 싶다’에서는 딥페이크를 악용한 범죄를 추적했다. 피해자 A씨는 SNS 메시지를 통해 낯선 이에게 자신의 성관계 영상을 받았다. 하지만 직접 촬영한 영상도 아닐뿐더러 실제 있었던 일이 아니었지만, 영상 속 인물은 자신의 얼굴을 닮아있었다.
이러한 협박 메시지를 받은 사람은 피해자 A씨 뿐만이 아니다. 현재에도 딥페이크를 활용한 불법 음란물이 여러 성인사이트에서 유포되고 있으며, 위와 같은 협박의 메시지를 받고 있다.
‘그것이 알고 싶다’ 제작진은 전문가의 조언으로 딥페이크 기술을 활용한 범죄 실험을 진행했다. 대상은 부모와 자녀였으며, 병원에 입원한 자녀가 부모를 속여 돈을 요구하는 피싱 사기 모의실험이었다. 딥페이크 영상을 받은 부모들은 “너 아닌데.”, “비슷한데 아닌 건 알 수 있었다.”라고 의심하면서도 “혹시 모른다.”라는 불안감에 신용카드 사진을 바로 전송했다. 이 실험과 같이 딥페이크 악용 범죄는 일상생활에서 쉽게 일어날 수 있다. 자신이 언제 어디서 피해자가 될지 모르기 때문에 항상 의심해야 한다.
이에 경찰이 딥페이크 등 인터넷 발달로 늘어난 사이버 성범죄에 대응하기 위해 집중단속에 나섰다. 특히 딥페이크 성착취 영상물을 용돈벌이로 악용한 10대, 20대가 주로 경찰에게 붙잡히고 있다. 경찰에 잡힌 A(18), B(10대), C(20대)군이 유통한 딥페이크 사진은 총 3,309건, 성착취 영상물은 총 1만 1,373건에 달하는 것으로 밝혀졌다. 이들은 연예인과 일반인 얼굴을 합성하였고, 이를 판매하여 수익금을 얻었다고 한다.
사이버 성범죄 집중수사와 함께 청소년 대상 교육, 홍보 등의 활동이 다양해지고 있다. 지난해 사이버 성범죄로 검거된 가해자 30.5%, 피해자의 60.7%가 10대로 밝혀지면서 이에 대한 심각성이 부각되었다. 이들의 상당수는 불법합성물을 범죄로 인식하지 못하고 공유 및 유포한 것으로 파악되어 관련 교육이 시급한 상황이다.
지난해 6월부터 성폭력 처벌법이 개정되면서 사이버 성범죄에 대한 수사력이 강화되었다. 하지만 인터넷과 기술이 발전함에 따라 사이버 범죄가 더 늘어나고 있으며, 피해자가 증가하여 심각성이 고조되고 있다. 딥페이크 등과 같은 기술이 위처럼 악용되지 않도록 빠른 조치가 필요하다. 또한, 협박 메시지와 영상물을 대처할 수 있도록 피해자가 손쉽게 경찰에게 신고할 수 있게 안내해야 한다. 이러한 기술을 악용하는 것이 아닌, 도덕적인 면으로 이용하는 것은 어떨까.

이미지 출처
https://www.sedaily.com/NewsView/22HDOPL0Z9
http://news.heraldcorp.com/view.php?ud=20210303000453
https://www.hankyung.com/society/article/2021022899967
https://news.mt.co.kr/mtview.php?no=2021012114580855686
https://www.nocutnews.co.kr/news/5506252
딥페이크란, 인공지능의 한 분야인 딥러닝(Deep learning)을 활용해 사람의 얼굴이나 특정 부위를 합성한 가짜 동영상을 만들어내는 기술을 말한다. IT 산업은 물론 다양한 산업에서 쓰이고 있는 인공지능 기술 중 하나인 딥페이크는 윤리적인 면에서 긍정적인 반응을 보이고 있다. 예를 들어, 이미 사망한 사람의 모습을 AI로 재현해 가족들을 위로하고 감동을 전할 수 있으며, 신원 보호가 필요한 사람들을 위한 안전장치가 되기도 한다.

▲ 혼성 그룹 거북이 리더 故 터틀맨
실제로 지난해 12월 케이블 음악 채널 엠넷에서는 ‘다시 한번’이라는 프로그램을 통해 혼성 그룹 거북이의 리더인 고인 터틀맨의 무대를 되살려 선보였다. 거북이의 무대를 위해 제작진은 먼저 실제 터틀맨과 비슷한 체형을 가진 모델을 선정하여 모델의 동작을 촬영했다. 이후 터틀맨의 과거 사진과 동영상 자료들을 모아 AI를 학습시켰고, 최적의 얼굴 데이터를 추출했다. 이 얼굴 데이터들을 모델의 동작과 합성하여 터틀맨의 자연스러운 모습을 구현해냈다. 이는 딥페이크의 대표적인 알고리즘인 ‘생성적 적대 신경망(GAN)’을 활용한 사례이다.
▲ AI로 옆모습을 보이는 윤봉길 의사
이러한 딥페이크 기술은 역사적 인물들을 살아 움직이는 것처럼 재현하기도 했다. 해당 기술로 유관순 열사와 윤봉길 의사가 고개를 돌리며 웃는 모습을 동영상으로 담아냈다. AI를 이용해 맞춤형 알고리즘으로 정지된 얼굴 사진을 자연스럽게 움직이는 얼굴 동영상으로 변환시킨 것이다. 표정 변화까지 완벽하게 구현해냈다.
위와 같이 감동적이고 추모적인 사례들도 있지만, 딥페이크를 악용하는 범죄가 나날이 증가하고 있다. 특히 인터넷이 발전해 사이버 성범죄가 많이 발생하고 있다. 딥페이크 기술을 이용해 얼굴을 합성하여 음란물을 만들고, 판매 혹은 협박을 하는 일이 벌어졌다. 딥페이크에 의한 불법 음란물이 제작되면서 연예인과 유명인은 물론 일반인들까지 많은 사람이 피해를 보고 있다.
경기대학교 범죄심리학과 이수정 교수는 “연예인 등 유명인을 대상으로 한 딥페이크 음란물은 수익을 노린 공급자, 즉 기술자들이 상품을 제작, 배포하고 이를 헤비 유저(다량 이용자)들이 구매하는 구조”라며 “공급자들은 금전적 이득을, 수요자들은 성적인 만족을 취한다는 목적이 가장 일반적 형태”라고 설명했다. 다시 말해, 딥페이크 기술을 악용하여 불법 음란물 시장이 형성되었다는 의미이다.
또한, 이수정 교수는 일반인을 대상으로 한 불법 음란물에 대해서도 언급했다. “일반인 대상 딥페이크 범죄는 악의적, 적대적 목적을 갖고 불법 영상을 만드는 공급자들이 대다수로 보인다.”라며, 자신의 성적 만족과 재미를 충족시키기 위해 소비하는 경우도 있다고 말했다. 다른 전문가 또한 평소 싫어하던 사람을 대상으로 성적 웃음거리를 만들려는 목적을 가지고 있을 수 있다고 언급하면서 이는 조롱과 아울러 본인이 피해자보다 우월한 존재임을 확인하는 심리도 적용했을 수 있다고 설명했다.
그뿐만 아니라, 퀄리티는 크게 중요하지 않다는 시각도 나왔다. 정교한 화면보다 만들고 유포하는 것에 의미를 두었기 때문이다. 게다가 온라인상에서 딥페이크 영상 제작 방법이 공유되면서 “무료로 합성해준다.”, “연습으로 만들어 드린다.”와 같은 게시물이 늘어나고 있다.

▲ 협박 메시지
프로그램 ‘그것이 알고 싶다’에서는 딥페이크를 악용한 범죄를 추적했다. 피해자 A씨는 SNS 메시지를 통해 낯선 이에게 자신의 성관계 영상을 받았다. 하지만 직접 촬영한 영상도 아닐뿐더러 실제 있었던 일이 아니었지만, 영상 속 인물은 자신의 얼굴을 닮아있었다.
이러한 협박 메시지를 받은 사람은 피해자 A씨 뿐만이 아니다. 현재에도 딥페이크를 활용한 불법 음란물이 여러 성인사이트에서 유포되고 있으며, 위와 같은 협박의 메시지를 받고 있다.
‘그것이 알고 싶다’ 제작진은 전문가의 조언으로 딥페이크 기술을 활용한 범죄 실험을 진행했다. 대상은 부모와 자녀였으며, 병원에 입원한 자녀가 부모를 속여 돈을 요구하는 피싱 사기 모의실험이었다. 딥페이크 영상을 받은 부모들은 “너 아닌데.”, “비슷한데 아닌 건 알 수 있었다.”라고 의심하면서도 “혹시 모른다.”라는 불안감에 신용카드 사진을 바로 전송했다. 이 실험과 같이 딥페이크 악용 범죄는 일상생활에서 쉽게 일어날 수 있다. 자신이 언제 어디서 피해자가 될지 모르기 때문에 항상 의심해야 한다.
▲ 일러스터
이에 경찰이 딥페이크 등 인터넷 발달로 늘어난 사이버 성범죄에 대응하기 위해 집중단속에 나섰다. 특히 딥페이크 성착취 영상물을 용돈벌이로 악용한 10대, 20대가 주로 경찰에게 붙잡히고 있다. 경찰에 잡힌 A(18), B(10대), C(20대)군이 유통한 딥페이크 사진은 총 3,309건, 성착취 영상물은 총 1만 1,373건에 달하는 것으로 밝혀졌다. 이들은 연예인과 일반인 얼굴을 합성하였고, 이를 판매하여 수익금을 얻었다고 한다.
사이버 성범죄 집중수사와 함께 청소년 대상 교육, 홍보 등의 활동이 다양해지고 있다. 지난해 사이버 성범죄로 검거된 가해자 30.5%, 피해자의 60.7%가 10대로 밝혀지면서 이에 대한 심각성이 부각되었다. 이들의 상당수는 불법합성물을 범죄로 인식하지 못하고 공유 및 유포한 것으로 파악되어 관련 교육이 시급한 상황이다.
▲ 불법 음란물 유포 사이트
지난해 6월부터 성폭력 처벌법이 개정되면서 사이버 성범죄에 대한 수사력이 강화되었다. 하지만 인터넷과 기술이 발전함에 따라 사이버 범죄가 더 늘어나고 있으며, 피해자가 증가하여 심각성이 고조되고 있다. 딥페이크 등과 같은 기술이 위처럼 악용되지 않도록 빠른 조치가 필요하다. 또한, 협박 메시지와 영상물을 대처할 수 있도록 피해자가 손쉽게 경찰에게 신고할 수 있게 안내해야 한다. 이러한 기술을 악용하는 것이 아닌, 도덕적인 면으로 이용하는 것은 어떨까.

이미지 출처
https://www.sedaily.com/NewsView/22HDOPL0Z9
http://news.heraldcorp.com/view.php?ud=20210303000453
https://www.hankyung.com/society/article/2021022899967
https://news.mt.co.kr/mtview.php?no=2021012114580855686
https://www.nocutnews.co.kr/news/5506252
전체 0
댓글을 남기려면 로그인하세요.