김현정의 뉴스쇼

표준FM 월-금 07:10-09:00

"주요 인터뷰를 실시간 속기로 올려드립니다.
인터뷰를 인용 보도할 때는 프로그램명을 밝혀주십시오."
- CBS 라디오 <김현정의 뉴스쇼>

5/22(목) [인터뷰] "20초면 뚝딱...선거판 딥페이크, 삭제 요청만 4천 건"
2025.05.22
조회 200

* 인터뷰를 인용보도할 때는

프로그램명 'CBS라디오 <김현정의 뉴스쇼>'를

정확히 밝혀주시기 바랍니다. 저작권은 CBS에 있습니다.

* 아래 텍스트는 실제 방송 내용과 차이가 있을 수 있으니 보다 정확한 내용은 방송으로 확인하시기 바랍니다.

======================================================

■ 방송 : CBS 라디오 <김현정의 뉴스쇼> FM 98.1 (07:10~09:00)

■ 진행 : 김현정 앵커

■ 대담 : 정수환 (숭실대 전자정보공학부 교수)



딥페이크 삭제 요청, 올 대선만 4천 건 넘어
시간 들인 딥페이크, 구별 할 정도로 정교
일반인도 제작 가능, 자동화된 도구 있어
원 음성 20초면 딥페이크 음성 제작 가능
딥페이크 영상에 '딱지' 붙여 대응해야

대통령 선거 이제 12일 앞으로 다가온 상황 속에서 재외국민 투표는 이미 진행 중이죠. 그런데 온라인에서는 특정 후보를 비방하기 위한 딥페이크 합성물이 기승을 부리고 있다고 합니다. 도대체 어느 정도 수준의 이 영상들, 딥페이크 영상들이 횡행하는 건지 또 누가 만드는 건지, 얼마나 넘쳐나고 있는 건지 오늘 한번 짚어보도록 하겠습니다. 숭실대 전자정보공학부의 정수환 교수 나오셨습니다. 어서 오십시오, 정 교수님.

 

◆ 정수환> 안녕하세요. 

 

◇ 김현정> 지난번에는 저희가 딥보이스, 그러니까 이 가짜 음성을 만들어서 보이스피싱에 쓰는 거, 이런 걸로 인터뷰했던 적이 있는데 이번에는 목소리 정도가 아니라 영상이라는 거죠?

 

◆ 정수환> 예, 그렇습니다. 이제 기술이 발달해서 영상도 상당히 잘 만들어지고 있습니다. 

 

◇ 김현정> 딥페이크 영상물은 선거 때가 아닌 평소에도 문제입니다만 선거철에는 더 성행하고 또 선거철에는 더 악영향을 끼칠 수 있는 거잖아요. 

 

◆ 정수환> 그렇습니다. 

 

◇ 김현정> 얼마나 많아졌습니까? 

 

◆ 정수환> 사실 작년에 우리가 총선을 치를 때 중앙선관위에서 딥페이크로 탐지해서 삭제 요청한 게 한 400건이 좀 안 되는 그런 수준이었는데.

 

◇ 김현정> 지난 총선 때.

 

◆ 정수환> 작년 총선 때요. 그런데 올해 대선 때는 지금까지 벌써 삭제 요청된 게 한 4천 건이 넘어선 걸로.

 

◇ 김현정> 10배가 넘어간 거예요?

 

◆ 정수환> 거의 10배가 넘어선 걸로 지금 자료가 나오고 있습니다. 

 

◇ 김현정> 삭제 요청을 해서 삭제한 것만 그거라는 얘기니까 발견 못 한 거는 지금도 돌아다니고 있다는 얘기잖아요.

 

◆ 정수환> 여전히 많이 아마 다수도 있을 것으로 생각이 됩니다. 

 

◇ 김현정> 교수님 보신 것 중에 아우, 감쪽같다. 교수님도 속겠다 하는 것들도 꽤 있어요?

 

◆ 정수환> 많습니다.

 

◇ 김현정> 많아요? 

 

◆ 정수환> 예.

 

◇ 김현정> 저희가 다 보여드릴 수는 없지만 몇 개만 좀 짧은 것들 사례로 모아봤거든요. 얼마나 감쪽같고 얼마나 심각한지 같이 한번 사례를 보면서 얘기 나눠보죠. 유튜브와 레인보우로 보실 수 있는 분들은 보시고 라디오 청취자들께 제가 말로 좀 설명 드리겠습니다. 보시죠. 이 화면은 김문수 후보가 순대를 먹는 화면이에요. 이거는 이름을 이용해서 뭔가 좀 이렇게 조롱하려고 만든 것 같은데 이것도 감쪽같네요. 저희가 주의, 딥페이크 영상입니다라고 문자를 써놓지 않으면 진짜로 김문수 후보가 저렇게 순대 먹나? 이런 생각이 들 만큼. 다음으로 한번 넘어가 보겠습니다. 다음 영상은 이재명 후보 영상인데 이재명 후보 옆에 박찬대 원내대표, 이런 분들이 쭉 서 있고 코를, 막 코에다가 손가락을 넣고 막 이런 모습이네요. 이거는 막 실사하고 막 합쳐 갖고 만든 것 같아요, 교수님.

 

◆ 정수환> 예, 그렇게 보입니다. 

 

◇ 김현정> 그러면서 뭔가 이렇게 역시 조롱성 영상을 만든 딥페이크 영상물. 다음으로 넘어갑니다. 다음은 이준석 후보가 명태균 씨 옆에서 막 울고 있는 이런 영상을, 이것도 역시 합성해서 만든 것 같아요. 황금폰 비밀번호 알려달라며 읍소한다는 내용을 담은 이런 영상도 딥페이크로 돌고 있고. 또 있습니까? 이거는 김건희 여사, 윤석열 전 대통령이 싸우는 모습을 영상으로 막. 주먹질하면서 싸우는 모습을 영상으로 표현한 딥페이크 영상물. 교수님, 지금 저희가 보여드린 것 중에는 조금 조잡한 수준도 있는데 이거보다 훨씬 감쪽같은 것도 있다는 거잖아요. 

 

◆ 정수환> 사실 지금 보신 영상들은 좀 자세히 보면 사실 좀 어색한 부분들도 있고 해서 우리가 이거는 좀 조작된 영상이겠구나라고 판단할 수가 있는 것들이 보이는데 지금 사실 딥페이크 제작 기술이 굉장히 발전해서 최근에 나오는 영상들 중에는 저는 딥페이크를 연구하고 있으면서도 사실은 이게 딥페이크가 아닌가라고 굉장히 헷갈릴 정도로 그런 정교한 영상들이 많이 만들어지고 물론 이런 것들은 일반적인 그냥 쉽게 만드는 도구로는 그렇게 정교하게 안 나오지만 스튜디오 같은 데서 좀 시간을 갖고 충분히 작업을 했을 때는 사실 우리가 구별하지 못할 영상이 많이 나오고 있습니다.

 

◇ 김현정> 그러니까 전문가 눈에도 헷갈리는 게 있고 그렇지 않더라도 않더라도 아주 정치 고관여층이 아니면 언뜻 보면 저런 거 헷갈릴 수 있어요. 진짜라고 속을 수 있어요. 

 

◆ 정수환> 맞습니다.

 

◇ 김현정> 그렇기 때문에 문제라는 건데 이게 그러니까 만들기가 쉬워요?

 

◆ 정수환> 예전에는 이런 거 하나 만들려면 상당히 오랜 시간을 투입을 하고 많은 비용이 들었는데 이제는 제작 도구들이 많이 발전을 하고 수준이 높아지면서 적은 비용으로 짧게는 몇 십 초에서 아니면 5분, 10분의 상당히 그래도 괜찮은 화질의 그런 딥페이크가 제작이 가능한 도구들이 많이 나와 있습니다. 

 

◇ 김현정> 세상에, 몇 십 초만에도 하나가 뚝딱 나옵니까? 

 

◆ 정수환> 네. 그런 건 약간 품질은 좀 떨어지지만.

 

◇ 김현정> 품질은 조악해도 하나가 몇 십 초 안에 나올 수도 있다?

 

◆ 정수환> 그렇게 나올 수도 있습니다.

 

◇ 김현정> 그러면 한 10분 이 정도 정성 들이면 훨씬 고퀄리티가.

 

◆ 정수환> 그래도 중간급 이상의 퀄리티, 상당히 좋은 퀄리티로 만들 수 있습니다. 

 

◇ 김현정> 세상에. 그러니까 어떤 식의 프로세스, 어떤 식의 과정으로 만드는 겁니까? 

 

◆ 정수환> 그러니까 예를 들면 사진 같은 거 한 장을 집어넣고 기존에 동작이라든가 이런 것들이 다른 사람 걸로 돼 있는 거를 얼굴을 이렇게 스와핑을 한다든가 그런 간단한 것들도 있고 요즘은 모션 같은 것들도 굉장히 자연스럽게 만드는 그런 딥 모션이라든가 이런 여러 가지 툴들이 많이 나왔거든요. 그러니까 일반 사람들도 사실은 충분히 그런 도구만 활용을 할 정도의 어떤 수준만 되면 제작이 가능한 수준이 됐기 때문에 이렇게 급증하고 있는 것 같습니다. 

 

◇ 김현정> 그러니까 도구를 활용한다는 게 내가 이 사진을 이렇게 따가지고 내가 이렇게, 이렇게 엮고 이게 아니라 어떤 앱 같은 데다가, 어플에다가 그냥 넣기만 하면 된다는 거잖아요.

 

◆ 정수환> 그렇죠. 그런 거 넣으면 거기서 알아서 이렇게 제작을 해 주는 그런 도구들이 많이 나온 거예요. 자동화된 도구들이 많이 출현을 했습니다.

 

◇ 김현정> 그렇죠. 도구라고 해도 무슨 어떤 도구냐에 따라 우리가 많이 관여해야 되는 도구가 있고 아닌 도구가 있는데 이거는 그냥 사진 한두 장만으로도 되는 거예요?

 

◆ 정수환> 점점 간단하게 우리가 쉽게 만들 수 있는 도구들이 나오고 있는데 실제로 사실 예전에는 스튜디오 같은 데서 이런 거 만들려면 굉장히 많은 그래픽 작업이 들어가고 했었잖아요. 그런데 지금은 그런 것들이 전혀 필요가 없고 그냥 사진 혹은 대상이 되는, 어떤 타깃이 되는 그런 간단한 영상, 이런 것들만 있으면 충분히 그거를 학습을 해서 만들어낼 수가 있는 수준이 된 것 같습니다.

 

◇ 김현정> 학습을 해서. 그럼 아까 저희가 보여드린 것 중에는 실제로 있는 영상, 실제 뉴스 장면에다가 뭔가를 집어넣은 형태도 있고 아니면 아예 하지도 않은 새로운 어떤 동작이 나오기도 하고 이런 것도 좀 다르네요. 

 

◆ 정수환> 예, 그렇습니다. 그러니까 만약에 기존에 일단 있는 실제 영상에다가 추가로 어떤 걸 합성을 하는 거, 그런 것들도 가능하고 그렇지 않고 완전히 모션 같은 것들을 완전히 창의적으로 만드는 그런 애니메이션 같은 데서 특히 많이 사용하는 그런 도구들도 있습니다. 

 

◇ 김현정> 실제로 해외에서는 어떤 딥페이크 영상들이 또 선거에 영향을 미치고 있는지 해외 사례도 한번 봤으면 좋겠는데요. 준비해 오신 영상 한번 볼까요? 이거는 김정은 위원장의 영상입니다. 이건 사실 소리까지 들으면 더 좋은데 이거 굉장히 유명했어요. 미국 대선 때 김정은 위원장이 나와 가지고 영어로 말을 하는 거예요. 민주주의를 부수기는 쉽다. 아무것도 안 하면 된다. 이러면서 씨익 웃는 장면도 있고. 그런가 하면 트럼프 대통령이 나와서 또 뭐라고 뭐라고 하는 장면, 이것도 음성으로 들으면 감쪽같아요. 이거는 뭐냐 하면 대통령직에서 내가 사임하겠다, 이런 내용인 거죠, 교수님?

 

◆ 정수환> 그렇습니다. 

 

◇ 김현정> 굉장히 자연스럽네요. 

 

◆ 정수환> 지금 보시면 저런 영상들은 상당히 좀 잘 만들어진 딥페이크 영상들인데 사실 얼핏 봐서는 거의 일반인들이 구별하기가 어렵다고 보이는데요.

 

◇ 김현정> 전혀 구분이 안 돼요. 전혀 구분이 안 되고 저는 목소리까지 들어도 감쪽같아요. 지금 목소리를 못 들려드립니다만 목소리 들으신 분들은 목소리 들으면 금방 알죠가 아니에요. 목소리 들으면 더 속아요.

 

◆ 정수환> 저는 원래 음성 쪽을, 또 딥페이크 음성 쪽을 하고 있는데 목소리는 더 구분이 어려울 정도로 지금 가깝습니다. 실제.

 

◇ 김현정> 저 정도 목소리를 만들어내려면 도대체 그 사람의 원래 음성 어느 정도가 있어야 됩니까? 교수님.

 

◆ 정수환> 지금은 한 20초, 30초, 그 정도 분량이면 충분히 좋은 퀄리티로 만들어낼 수가 있습니다. 

 

◇ 김현정> 세상에. 그럼 제가 지금 말하고 있는 거의 20초만 있으면 제 목소리로 무슨 얘기를 하는 것이든 다 만들어낼 수 있어요?

 

◆ 정수환> 그렇습니다. 텍스트만 집어넣으면 전혀 발화하지, 말씀하시지 않으신 내용을 다 만들 수 있습니다. 

 

◇ 김현정> 저 이번 대선에 좀 늦었지만 출마하겠습니다. 막 이런 거. 20초만 있으면 그냥 만든다는 거잖아요. 

 

◆ 정수환> 그렇습니다.

 

◇ 김현정> 진짜 입모양까지. 그 정도로 여러분 기술이 발달해서 우리나라뿐만 아니라 다른 나라의 경우도 지금 선거판에 이런 딥페이크 영상들이 출몰하고 있다는 거죠. 

 

◆ 정수환> 그렇습니다. 해외 사례가 여러 가지 많이 나왔지만 2024년 1월에 미국 바이든 대통령이 당원들에게 투표 불참을 독려하는 음성파일, 전화를 건 것처럼 그렇게 해서 그런 사례가 있었고 또 인도에서 유명 배우가 특정 정당을 지지하는 영상이라든가 또 영국에서 노동당 대표의 폭언 영상, 특히 튀르키예에서 에르도안 대통령, 대선 때 에르도안 대통령이 한 5% 정도 차이로 당선이 됐는데 실제로 막 야당 후보랑 비슷한 시기에 무장 단체에서 야당 후보를 지지한다라는 딥페이크 영상이 돌아가지고 야당 후보를 누르고 다시 에르도안 대통령이 당선된 그런 사례도 있습니다.

 

◇ 김현정> 지금 제가 영상을 못 봐서 좀 답답한데 감쪽같아요, 그것도?

 

◆ 정수환> 그렇죠. 그러니까 사람들이 다 속았는데 나중에 딥페이크로 밝혀졌지만 선거 후이기 때문에 이미 투표는 끝난 거죠. 

 

◇ 김현정> 결국 이 제작 자체를 막는 건 불가능하고 앱을 사용하지 말아라, 이렇게 할 수는 없으니 제작 자체를 막는 건 불가능해 보이고 중요한 건 이 사람이 만들어서 확산시키는 걸 빨리 막아야 할 텐데 지금으로써는 발견해서 신고해서 일일이 삭제하는 것밖에 방법이 없나요? 

 

◆ 정수환> 지금 사실 우리나라 중앙선관위에서도 지금 선거 관련해서 딥페이크 영상들을 모니터링하는 요원이 상당히 많이 모니터링하고 발견이 되면 확실히 딥페이크로 판정이 되면 삭제 요청하고 이런 과정을 거치는데 이게 사람이 대응할 수준이 아니고 점점 만드는 게 쉬워지니까 굉장히 많은 딥페이크 영상들이 계속 올라오고 있기 때문에 대응이 안 됩니다. 그래서 사실은 이거를 대응하기 위해서 그동안 EU에서 AI법이라든가 또 우리나라에서도 AI기본법에 딥페이크로 만들어진, 이 AI로 만들어진 콘텐츠에 대해서 워터마킹 같은 거를 붙여서 사람들이 알게 하자. 쉽게 디텍션을 하게 하자.

 

◇ 김현정> 제작자가 붙이지 않아도 자동으로 붙게 해서.

 

◆ 정수환> 제작자가 붙이든지 아니면 일반적으로 나중에 붙이는 것보다는 제작하는 단계에서 붙여야 되는데.

 

◇ 김현정> 그런데 저 사람들은 속이려고 작정하고 만든 건데 그걸 붙이겠어요?

 

◆ 정수환> 그래서 사실은 저도 그게 실효성이 떨어진다고 보는 게 실제로 워터마크를 만드는 도구들도 여러 가지가 있거든요. 여러 가지 도구 A, B, C, D가 있으면 A로 만든 워터마크는 A로만 탐지를 해야 되지 B라는 도구로는 또 탐지를 못하거든요. 그럼 워터마크를 만든다 하더라도 또 그거를 통일을 해서 표준화를 해야 되는 이슈도 있고 그래서 사실은 또 범죄자들 입장에서는 그런 규정이 있다고 해도 따를 이유가 없잖아요. 그러니까 그게 약간 실효성이 떨어지고 그래서 제가 볼 때는 일단 만들어져서 올라간 다음에 업로드 된 다음에 확산을 막기는 좀 쉽지 않습니다. 그래서 결국은 우리가 스팸을 한번 생각을 해보면 스팸 처음 나올 때 막 굉장히 피해를 많이 입히고 사람들이 굉장히 시달렸잖아요. 그런데 지금은 어떻습니까? 우리가 스팸 필터라는 것들도 있고 또 스팸 신고 센터도 있지 않습니까? 

 

◇ 김현정> 있어요.

 

◆ 정수환> 그래서 마찬가지로 저도 딥페이크가 지금 초기라서 그런데 저희가 대응하는 체계를 갖춰야 된다라고 생각합니다. 그래서 지금 예를 들면 플랫폼 회사들 있잖아요. 유튜브라든가 인스타그램, 네이버, 틱톡, 카카오, 이런 플랫폼 회사들한테 좀 책무를 부여하는 규제를 만들어야 한다고 생각합니다. 어떤 책무냐 하면 처음에 이 딥페이크 제작자가 업로드를 할 때 그때 자체적으로 딥페이크 탐지기 같은 걸 자동으로 돌아가서 이게 딥페이크일 확률이 굉장히 높다라고 생각이 되면 요즘 유튜브에서 왜 노란 딱지 붙이고 막 이런 것도 있지 않습니까? 그것처럼 딥페이크 영상일 가능성이 높으면 빨간 딱지를 붙여준다든가. 그래서 사실 시청하시는 분들이 이게 가짜 영상일 확률이 높구나라고 사실 알고 시청하시면.

 

◇ 김현정> 기술적으로는 알 수 있어요?

 

◆ 정수환> 기술적으로는 지금 물론 100% 정확한 건 아니고 한 90% 정도, 정확도 90% 남짓한 정확도를 가지고 지금 탐지가 가능하거든요. 

 

◇ 김현정> 그 정도만 돼도 일단 노란 딱지를 붙여 놓고 경고를 준 다음에 그 제작자가 아닌데 붙었다 하면 얘기하도록 하면 되니까.

 

◆ 정수환> 맞습니다.

 

◇ 김현정> 유튜브에다 얘기하도록 하면 되니까.

 

◆ 정수환> 지금 사실 딥페이크 판정됐다고 삭제를 했을 때 탐지 도구가 100% 정확하지 않은데 삭제를 하면 또 그게 민원 사항이 될 수도 있거든요.

 

◇ 김현정> 그렇죠. 항의하면 되니까.

 

◆ 정수환> 왜 우리 거를 또 삭제하느냐. 그러니까 삭제보다는 저는 그런 노란 딱지나 이런 걸 붙여가지고 시청자들이 알게 하고.

 

◇ 김현정> 주의하게끔.

 

◆ 정수환> 또 사실은 그렇게 돼도 다 걸러내기가 어려운 경우에는 시청자들이 지금 스팸 신고하는 것처럼 딥페이크 신고하는 버튼을 만들어 가지고 신고를 하게 해서 이게 일정 카운트 이상 누적이 되면 정밀 분석을 해서 이건 딥페이크가 맞다, 이렇게 한다든가 그런 대응 체계를 갖춰 나가는 것이 좀 현실적이라고 봅니다. 

 

◇ 김현정> 이런 거 만들었다가 적발되면 지금 처벌은 좀 세게 받습니까? 

 

◆ 정수환> 지금 여러 가지 처벌 규정들이 있는데요. 사실 제일 문제가 됐던 게 딥페이크 음란물 같은 경우에 그런 경우에 5년 이하 징역이나 5천만 원 이하 벌금, 또 공직선거법 같은 데서는 지금 최대 징역 7년까지도 가능하고요. 꼭 그런 것까지 아니더라도 명예훼손이라든가 이런 데서도 7년 이하 또는 5천만 원 이하 벌금, 이런 식으로 규정은 굉장히 세게 돼 있는데 문제는 이거를 누가 제작을 해서 올렸는지 찾는 게 또 잡기가 쉽지가 않기 때문에 여전히 좀 한계는 있다라고 생각을 합니다. 

 

◇ 김현정> 저거 잡아보면 막 초등생이 만들고 이런 것도 있어요?

 

◆ 정수환> 그렇죠. 지금 사실 지난번에 그 딥페이크 포르노물이라든가 이런 것들은 사실 10대 학생들이 그냥 장난삼아서 만들어 가지고 예를 들면 단톡방에 올리고 막 그런 일들이 많이 있었잖아요. 

 

◇ 김현정> 알겠습니다. 알겠습니다. 이게 워낙 쉽다 보니까 이게 범죄인지도 모르고 장난삼아 하는 것이 이렇게 일파만파 퍼지는 경우도 있다는 말씀인데 선거에는 심대한 영향을 미칠 수 있다는 말씀이고 이런 말씀하신 대안들, AI 기술 발전하는 것 못지않게 대안들도 빨리빨리 마련돼서 이로 인한 피해는 막아야겠습니다. 교수님 오늘 고맙습니다. 

 

◆ 정수환> 감사합니다.