SBS <그것이 알고싶다>의 한 장면.

SBS <그것이 알고싶다>의 한 장면. ⓒ SBS


"앞으로는 사기범행의 양상이 아예 달라질 수도 있다. 사건을 수사하고 기소하면서 마주치는 증거들이 모두 '허위'일 수도 있겠다는 두려움이 들기 시작했다."
 
"'인간은 자기가 보는 것을 믿는다'고 하는 전통적인 공식이 붕괴되는 것이다. 시각과 청각을 혼동시키면 우리 인간이 판단할 수 있는 근거가 아예 없어진다. 이에 어떻게 대비할 수 있을지 생각해보면 정말 무서운 일이다."
 
'딥페이크(Deepfake)'란 딥러닝과 페이크의 합성어로 인공지능을 기반으로 활용한 이미지 합성 기술을 의미한다. 실존하는 인간의 얼굴과 몸, 음성 등을 디지털로 정교하게 합성하여 영상편집물을 만드는 기술이 발전하면서 일부가 범죄에 악용되는 문제가 날로 심각해지고 있는 상황이다.
 
20일 방송된 SBS <그것이 알고싶다>에서는 '빼앗긴 얼굴과 가짜의 덫, 화면 속 그들은 누구인가' 편을 통해 딥페이크를 활용한 신종 피싱범죄의 심각성을 조명했다.
 
전 코미디언이자 현재는 개인투자자로 활동 중인 황현희는 최근 SNS에 자신의 이름을 사칭한 가짜 계정들이 수도 없이 범람하고 있다는 사실을 뒤늦게 인지하고 큰 충격을 받았다. 누군가 황현희의 얼굴과 이름을 무단 도용해, SNS와 동영상 플랫폼에서 정체불명의 투자 광고를 진행하고 있었던 것이다.
 
영상 속 링크를 클릭하니 투자 정보를 알려주는 채팅방으로 연결됐다. 그 안에서는 놀랍게도 황현희를 사칭한 인물이 그의 개그맨 시절 유행어까지 따라하며 주식 투자를 유도하고 있었다. 이미 투자 피해자가 속출하고 있는 상황이었고, 황현희는 실제 자신이 하지도 않는 일에 연루되었다는 억울한 누명을 써야만 했다.
 
투자 전문가로 유명한 금융인 존 리 역시 황현희와 비슷한 피해를 입은 사실을 인터뷰에서 밝혔다. 사칭 계정으로 인하여 사기 피해를 당한 피해자가 무고한 존 리를 고소한 사건도 있었다. 존 리는 "일일이 잡으러 다닐 수도 없고 사칭 계정은 너무 많다. 사람들은 계속 속고 있다"며 곤혹스러워 했다.
 
유명인 137명, 피해금액 약 1조 원... 심각한 피싱범죄

상황이 악화되자 지난 3월에는 '유명인 사칭 온라인 피싱범죄 해결을 위한 모임'이 결성되어 공동대처에 나섰다. 황현희와 존 리를 비롯하여 유재석, 송은이, 홍진경 등 이름과 사진을 도용당했다는 유명인만 무려 137명에 이르렀다. 또한 유명인을 사칭하여 이루어진 온라인 피싱 범죄의 피해액은 무려 약 1조 원에 달할 정도로 심각해진 상황이다.
 
피해자들은 사회적으로 유명한 연예인이나 전문가들이 등장하는 모습에서 신뢰감을 얻고 투자를 결심하는 경우가 많다. 2차 전지 관련주 돌풍으로 화제를 모은 '배터리 아저씨' 박순혁 작가 역시 SNS와 동영상 플랫폼에 그를 사칭한 계정이 등장하면서 앞으로 상승할 주식 종목을 추천해 많은 투자자들을 유인했다고 한다.
 
그래도 진위 여부를 반신반의하던 투자자들의 의심을 결정적으로 불식시킨 계기는, 유명 배우 송혜교와 조인성이 출연했다는 축하영상이었다. 투자자들은 이들의 영상 메시지를 보고난 후, 해당 종목이 어린이 자선사업에 쓰일 공모주 프로젝트라는 사실을 믿고 투자를 결정했다.
 
하지만 놀랍게도 두 배우는 이런 영상을 촬영한 일이 전혀 없었고, 화면 속 모습은 피싱범죄 조직들이 딥페이크 기술로 얼굴과 목소리를 조작해낸 가짜 영상이라는 것이 드러났다. 박순혁 작가 역시 SNS를 하지 않는다고 고백하며 자신을 사칭한 계정이나 공모주 추천이 모두 허위라고 확인했다.
 
이처럼 최근에는 딥페이크 기술로 인하여 과거의 CG 기술에 비하여 훨씬 손쉽고 정교하게 진짜같은 가짜를 만드는 게 가능해졌다. 해외에서도 유명인의 사진이나 자료를 활용하여 일반인들이 딥페이크 영상을 만들어내는 모습을 쉽게 찾아볼 수 있다. 외국인 일론 머스크가 한국어로 말하는 모습이나, 그림인 모나리자가 실제 사람처럼 대화를 하는 모습도 딥페이크로 얼마든지 만들어낼 수 있게 됐다.
 
문제는 딥페이크가 빠른 속도로 진화하면서 우리의 눈과 귀를 속이는 새로운 범죄수단으로 떠올랐다는 것이다. 누구라도 손쉽게 범행을 저지를 수 있고, 누구든지 표적이 될 수 있다는 것은, 딥페이크 신종 범죄가 더욱 위험한 이유다.
 
강정희(가명)씨는 최근 대부업자에게 납치되었다는 딸 김슬기씨(가명)의 다급한 전화를 받고 크게 놀랐다. 전화번호와 목소리는 분명 슬기씨의 것이었지만, 이는 '딥보이스' 기술로 변조된 가짜였다. 다행히 진짜 슬기씨는 집에 있다는 사실이 바로 확인되었지만 하마터면 속아 넘어가서 큰 범죄 피해로 이어질 수도 있었던 위험천만한 사건이었다.

개인 SNS에서 얻은 신상 자료 도용해, 딥페이크 제작
 
 SBS <그것이 알고싶다>의 한 장면.

SBS <그것이 알고싶다>의 한 장면. ⓒ SBS

 
전문가들은 최근 딥보이스 기술이 진화하면서 이제는 빠르면 몇십초 이내에 특정인의 음성을 그대로 변조해내는 것이 가능해졌다고 이야기한다. 인공지능이 학습된 내용에 따라 키워드를 치면 바로 특정인의 음성을 거의 실시간에 가까운 속도로 구현해주는 것을 확인할 수 있다. 오픈 소스로 일반인들도 쉽게 접할 수 있는 프로그램으로 딥페이크 콘텐츠를 구현하는 데 걸리는 시간은 2, 3분도 걸리지 않았다.
 
최근에는 SNS 사용이 보편화 되면서 많은 사람들이 자신의 모습을 담은 사진이나 영상을 올리곤 한다. 범죄 조직들은 이러한 개인 신상 자료들을 무단으로 도용한 뒤 딥페이크 기술을 통해 개인의 목소리와 사진을 변조하여 다시 범죄의 도구로 써먹는 것이다. 또한 URL 링크 등을 통해 휴대폰에 악성코드가 심어지게 되면 발신번호를 변조하는 신기술까지 등장하며, 많은 사람들이 직접 눈으로 보고 귀로 들어도 깜쪽같이 속아넘어갈 수밖에 없는 상황을 유도하고 있다.
 
제작진은 딥페이크 기술을 활용한 보이스피싱 범죄 '모의실험'에 나섰다. 20대에서 50대에 이르는 실험 ㅅ참가자들의 동의 하에 목소리를 복제-변조한 뒤, 사전에 사실을 알리지 않은 참가자의 가족들에게 연락해 과연 속아넘어가는지 확인하는 실험이었다.

다행히 말투의 미묘한 차이나 수상한 정황을 포착하여 거짓을 간파한 이들도 있었지만, 꼼짝없이 속은 이들도 있었다. 참가자들은 만일 비슷한 상황이 실제로 발생했을 때는 속을 수도 있겠다며 두려워했다.

경찰은 최근 검거된 보이스피싱 범죄 조직원들을 통해, 아직 검거되지 않은 총책이 앞으로 딥페이크와 딥보이스를 활용한 범행을 추진 중이라는 정보를 확보했다. 경찰은 "중요 증거를 변조-조작할 수 있게 되면 앞으로 범인 특정과 검거가 더 어려워질 것"이라고 우려했다.
 
헬스 트레이너로 활동 중인 조용태씨는, 언제부터인가 일면식도 없는 여성들이 찾아와 항의하거나 소란을 피우는 일을 반복해서 겪었다. 심지어 베트남 여성이 찾아와 빌려준 돈을 갚으라며 요구하기도 했다.
 
알고보니 조용태씨의 사진을 도용한 사칭 계정으로 누군가가 이성의 환심을 사 돈을 요구하는 '로맨스 스캠' 범죄를 저지른 것. 피해자가 영상통화를 요구하자 조용태씨의 모습을 위조한 딥페이크 기술까지 활용한 것으로 드러났다. 이러한 사칭 피해를 입은 경우는 조용태씨만이 아니었고, 심지어 외국인인 유명 사업가 일론 머스크를 사칭해 한국인 피해자를 속이려고 했던 사례도 있었다.
 
전문가들은 "사기가 고도화되면서 앞으로는 사람이 없이도 범죄행위를 할 수 있는 피싱도 나올 수 있다"고 경고했다. 이어 "딥페이크에 왜 속느냐고 의아하겠지만, 비대면 관계를 발전시키는 과정에서는 딥페이크만 해도 굉장히 구체적인 정보가 된다. 거짓말인 줄 알면서도 진짜라고 믿고 싶어하는 게 인간의 심리"라고 지적했다. 이렇게 조작된 영상으로 상대의 판단력을 잃게 만드는 것은, 곧 사람에 대한 통제력이나 지배력을 행사하는 데 쓰일 수도 있다는 위험이 커진다는 의미라는 것이다.
 
경찰이 파악한 바에 따르면 현재 이러한 피싱범죄 조직들은 해외, 주로 캄보디아에 근거지를 두고 있다고 한다. 중국 조직과도 연계하여 공장같은 단지를 만들어넣고 요새처럼 운영되는 시스템 속에서, 그 규모는 무려 수백 명에 이를 것으로 추정되고 있다. 현지 경찰조차 함부로 손을 대지 못할 정도라고.
 
방패 기술 중요성 부각... 그러나 따라잡기 쉽지 않아

한편으로 딥페이크의 역기능이 부각되면서 이를 방지하기 위한 방패 기술의 필요성도 제기되고 있지만, 빠른 속도로 진화하는 기술을 따라잡는 것이 쉽지 않은 실정이다.
 
임동민 서울 중앙지검 검사는 딥페이크 규제의 필요성을 강조하면서 지난 1월 직접 제작한 이원석 검찰총장의 딥페이크 영상을 검찰 내부망에 올려 경각심을 일깨우기도 했다. 임 검사는 진화하는 딥페이크 기술로 인하여 범죄 증거가 모두 조작되고 사기 범죄의 양상 자체가 완전히 달라질 수도 있다고 경고했다. 

현재 딥페이크 기술에 대한 처벌 규정은, 성착취물 제작이나 선거운동 활용 금지 정도에 국한되어있다. 하지만 이외에 딥페이크를 악용한 사기에 대한 별도의 법률이나 규제가 마련되어 있지 않다. 법조계 전문가들은 "범죄에 이용할 목적으로 딥페이크를 제작 유포한 경우에는 이를 별도로 처벌하는 규정을 새롭게 마련할 필요가 있다"고 지적한다.
 
또한 딥페이크를 이용한 사칭 범죄로 이름과 얼굴을 도용 당하고 평생 쌓아온 명예에 금이 간 이들의 피해는 되돌리기 어렵다. 피해자들이 억울함을 호소해도 법이나 관련된 플랫폼들이 문제를 해결하기 위하여 적극적으로 대처하지 않는 것도 문제로 지적된다. 사칭범죄 피해자인 존 리는 "내가 그동안 쌓았던 30년의 명예는 중요하지 않은 것인가. 금전적으로 직접 피해를 보지 않았다고 해서 한국에서 내가 받은 피해를 그리 크게 생각하지 않는다는 게 이상했다"며 씁쓸해했다.
 
방송통신위원회는 지난 2월 딥페이크 관련 사업자들을 모아놓고 딥페이크 피해근절을 위한 자율규제 강화를 권고했다. 하지만 전문가들은 이보다 더 강력한 법률규제가 필요하다고 주장한다.
 
이승환 국회 미래위 연구위원은 "칼이 위험한 도구가 될 수 있다는 것을 알지만, 어디서나 칼을 구입할 수 있고 함부로 나쁜 행동에 사용하지 않는 것은, 강력한 처벌규제가 있기 때문"이라고 비유하며 "서비스를 제공하는 기업에서 정책을 만드는 정부까지, 안전한 서비스를 제공할 수 있도록 함께 동시다발적으로 노력해야하는 변화의 시작점에 있다"고 강조했다.

'악마의 기술'로 불리우는 딥페이크는 이제 어느새 우리 곁에 가까이 다가온 현실이 되었다. 앞으로는 '보는 것이 곧 믿는 것'이라는 말이 통용되지 않는 시대도 이제 그리 멀지 않아 보인다. 만일 우리가 최악의 상황을 대비해야하는 골든타임을 놓친다면, 앞으로는 화면 너머 매일 얼굴을 마주해야하는 이에게도 "당신은 정말 진짜인가"라는 질문을 해야하는 상황이 도래할 수도 있다.
그것이알고싶다 딥페이크 딥보이 인공지능 사기범죄
댓글
이 기사가 마음에 드시나요? 좋은기사 원고료로 응원하세요
원고료로 응원하기
top