2024.05.05 (일)

  • 흐림속초18.0℃
  • 비17.1℃
  • 흐림철원14.8℃
  • 흐림동두천15.4℃
  • 흐림파주14.6℃
  • 흐림대관령14.3℃
  • 흐림춘천16.8℃
  • 비백령도13.3℃
  • 흐림북강릉20.9℃
  • 흐림강릉20.1℃
  • 흐림동해18.4℃
  • 비서울17.0℃
  • 비인천17.5℃
  • 흐림원주17.2℃
  • 구름많음울릉도17.9℃
  • 비수원16.8℃
  • 흐림영월13.6℃
  • 흐림충주16.8℃
  • 흐림서산19.0℃
  • 흐림울진16.8℃
  • 흐림청주18.6℃
  • 비대전17.2℃
  • 흐림추풍령17.5℃
  • 비안동15.8℃
  • 흐림상주16.1℃
  • 흐림포항18.6℃
  • 흐림군산20.1℃
  • 흐림대구19.5℃
  • 흐림전주20.5℃
  • 흐림울산18.0℃
  • 비창원18.7℃
  • 비광주19.1℃
  • 흐림부산19.4℃
  • 흐림통영18.3℃
  • 비목포18.6℃
  • 비여수17.4℃
  • 비흑산도17.3℃
  • 흐림완도18.8℃
  • 흐림고창18.8℃
  • 흐림순천17.3℃
  • 비홍성(예)17.0℃
  • 흐림16.6℃
  • 비제주20.5℃
  • 흐림고산18.8℃
  • 흐림성산19.0℃
  • 비서귀포19.3℃
  • 흐림진주17.0℃
  • 흐림강화15.6℃
  • 흐림양평17.1℃
  • 흐림이천17.2℃
  • 흐림인제15.3℃
  • 흐림홍천15.2℃
  • 흐림태백16.6℃
  • 흐림정선군13.0℃
  • 흐림제천14.3℃
  • 흐림보은18.1℃
  • 흐림천안17.5℃
  • 흐림보령20.2℃
  • 흐림부여18.1℃
  • 흐림금산18.7℃
  • 흐림16.8℃
  • 흐림부안20.3℃
  • 흐림임실18.4℃
  • 흐림정읍20.3℃
  • 흐림남원18.1℃
  • 흐림장수17.3℃
  • 흐림고창군19.6℃
  • 흐림영광군18.7℃
  • 흐림김해시19.1℃
  • 흐림순창군19.2℃
  • 흐림북창원21.0℃
  • 흐림양산시20.5℃
  • 흐림보성군18.6℃
  • 흐림강진군19.1℃
  • 흐림장흥18.2℃
  • 흐림해남19.1℃
  • 흐림고흥18.4℃
  • 흐림의령군17.8℃
  • 흐림함양군17.3℃
  • 흐림광양시17.1℃
  • 흐림진도군19.1℃
  • 흐림봉화13.7℃
  • 흐림영주14.9℃
  • 흐림문경15.9℃
  • 흐림청송군13.2℃
  • 흐림영덕15.9℃
  • 흐림의성17.3℃
  • 흐림구미18.9℃
  • 흐림영천17.2℃
  • 흐림경주시16.9℃
  • 흐림거창15.9℃
  • 흐림합천16.7℃
  • 흐림밀양18.1℃
  • 흐림산청16.4℃
  • 흐림거제20.7℃
  • 흐림남해17.7℃
  • 흐림19.9℃
기상청 제공
디지털에듀뉴스 로고
[관심UP키워드]-딥페이크
  • 해당된 기사를 공유합니다

최신

[관심UP키워드]-딥페이크

유명인 기자회견, 왜?

지난 22일, 서울 중구 프레스센터. 유튜버 겸 강사 김미경, 연예인 송은이 ·황현희, 존 리 전 메리츠자산운용 대표 등이 한자리에 모여 기자회견을 가졌습니다. 무슨 일 때문일까요?

 

news-p.v1.20240322.805b08afb0124684a496e07338d6e8ab_P1    온라인피싱범죄해결촉구하는개그우먼송은이.연합뉴스.jpg
온라인 피싱범죄 해결을 촉구하는 유명인들. <사진=연합뉴스>

 

“딥페이크라는 기술을 신기하게 바라볼 것이 아니라 나쁜 범죄에 이용됐을 때 다가올 세상은 너무나 끔찍하고 무섭구나라는 것을 이 자리를 통해서 한번 생각해 봐야 되지 않나…”

 

이들은 최근 딥페이크 피싱 광고 때문에 곤욕을 치르고 있다고 밝혔습니다. 지난해 9월 즈음부터 자신들을 사칭한 투자 권유 광고가 유튜브 및 인스타그램 등을 통해 널리 퍼졌다는 겁니다.

 

무료 책이나 높은 수익률을 미끼 삼아 주식 리딩방(주식 종목을 추천하거나, 투자에 도움을 주는 행위가 이뤄지는 오픈 채팅방이나 단체 대화방 등을 뜻하며 대부분 사기다.)으로 유인한 뒤, 처음에 수익률을 맛보게 해 준 다음 투자를 요구하는 등의 사기행각을 벌이는 겁니다. 

 

KakaoTalk_20240325_111133071_01.jpg
출처=김미경 인스타그램

 

KakaoTalk_20240325_111133071_03.jpg
출처=송은이 인스타그램

 

유명인들은 본인 SNS를 통해 자신들은 어떤 투자 권유 및 광고도 하지 않는다고 홍보했지만, 사태가 심각하다고 판단해 기자회견을 열게 된 것이었어요.

 

image01.png
출처=SBS뉴스

 

앞서 올 초에는 배우 조인성 씨와 송혜교 씨가 투자를 권하는 영상을 보고, 거액을 투자한 피해자가 발생하기도 했습니다. 영상은 모두 가짜! AI를 활용한 딥페이크 영상이었습니다. 피해자는 물론이고, 조인성 씨와 송혜교 씨도 정말 화나고 속상했을 것 같아요.

 

내가 하지도 않은 말로~ 내가 아닌 나의 얼굴로~ 나도 모르는 내가 다른 사람을 속이고 피해를 주고 있다? 생각하면 너무 무서운 일이잖아요? 이것이 바로 딥페이크가 범죄에 악용된 실사례라 하겠습니다. 

 

딥페이크가 뭐길래?

이미 우리 가까이에서 범죄에 악용되고 있는 이 기술, 딥페이크! 눈치채셨겠지만, 얼굴이나 목소리를 합성한 가짜를 뜻합니다. 

 

딥페이크 [deepfake] : 

인공지능 기술인 ‘Deep Learning’과 ‘Fake’의 합성어로, 인공지능 기술을 이용하여 

진위 여부를 구별하기 어렵도록 다른 이미지·영상과 합성한 가짜 이미지나 영상물

 

딥페이크라는 단어가 처음 등장한 것은 2017년이라고 합니다. 미국 온라인 커뮤니티 한 회원이 '딥페이크'라는 아이디를 사용해 유명인의 얼굴을 다른 사람의 몸에 합성한 영상을 게재하면서 하나의 명사로 굳어졌다고 해요.

 

몇 년 전만 해도 얼굴을 합성하는 기술은 기초적 수준에 불과했지만, AI 기술의 빠른 진화로 이제는 내가 보고, 듣는 것이 진짜인지 가짜인지 구분하기 힘든 세상이 됐습니다. ‘진짜보다 더 진짜 같은 가짜’ 라는 말이 괜히 나온 게 아니라니까요~

 

여기, 딥페이크라는 단어를 더 유명하게 만든 사진이 있는데요.


화면 캡처 2024-03-25 141732.png
출처=엘리엇 히긴스 X

 

바로 도널드 트럼프 전 미국 대통령이 체포되고 있는 사진입니다. 작년 이맘때 ‘엘리엇 히긴스’가 인공지능으로 만들어서 올린 사진이에요. 그는 디지털 자료 분석 단체 ‘벨링캣’의 창립자라고 하는데요. 이 사진을 본 사람들 중 실제 상황으로 받아들이는 사람이 생기고, SNS에서 널리 퍼지며 논란이 커졌습니다. 하지만 재킷이나 손가락 등이 부자연스럽다며 가짜 사진임을 단박에 알아차린 감 좋은 분들도 있었죠.

 

이후 조 바이든 대통령이 당원들에게 ‘투표를 하지 말라’고 말하는 목소리나, 서점에서 치매 관련 책을 고르는 사진. 트럼프 전 대통령이 흑인 여성, 청년들과 함께 찍은 사진 등이 딥페이크로 밝혀지며 화제가 되었어요.

 

이렇게 진짜 같은 가짜들이 빠르게 생성되고, 확산되면서 AI 기술을 활용한 딥페이크가 선거판을 뒤흔드는 것 아니냐는 우려의 목소리가 높아지고 있습니다. 예를 들어, AI 기술을 활용해 특정 후보의 과거 사건을 조작하고, 음성 조작으로 과거 부적절한 발언을 한 것처럼 만드는 것이죠. 그걸 진짜로 받아들이는 사람들이 많아질수록 투표에는 악영향을 미칠 수밖에 없을 거예요.

 

우리나라도 오는 28일부터 4·10 총선을 앞두고 공식 선거기간에 돌입하는데요. 그 많은 후보들의 영상과 사진을 일일이 다 검색해 확인해 볼수도 없는 노릇이고 정말 골치가 아플 것 같습니다.

 

그나마 다행인 건 '개정 공직선거법 시행'에 따라 선거 90일 전부터는 딥페이크 영상을 활용한 선거운동이 전면 금지됐다는 거예요. 이를 어기면 7년 이하의 징역 등에 처해지고, 선거일 90일 전이 아닌 평소에도 허위사실을 공표하고, 누군가를 낙선시키려 했다면 7년 이하 징역에 처해질 수 있습니다. 또, 선거일 90일 전이 아니고 허위사실이 없었더라도 ‘가짜 표현물’ 표시를 하지 않으면 1천만 원 이하의 과태료를 부과할 수 있다고 해요.

 

구분할 순 없나? 

그렇다면 우리는 발전한 기술에 계속 속아야만 할까요? 전문가들에 따르면 딥페이크를 구별할 수 있는 몇 가지 힌트가 있다고 합니다. 

 

영상의 경우 확대해서 보면 말과 입술의 움직임이 일치하지 않는 것을 확인할 수 있는 경우가 종종 있고요. 갑자기 음성의 높낮이가 변하거나 흐릿한 부분이 있거나 하는 등입니다.

 

최근 경찰청에서는 한국형 딥페이크 탐지 소프트웨어를 개발해 딥페이크 영상으로 의심되는 영상을 5~10분 만에 가짜인지 판별할 수 있다고 해요. 미국에서도 올해 선거를 겨냥해 선거, 정치 관련 딥페이크 영상이나 사진을 집중적으로 탐지하는 비영리 전문 단체가 생겼다고 하고요. 

 

뛰는 AI 위에 나는 AI라고~ AI로 만든 딥페이크를 가려내기 위해 AI가 활용되고 있는 겁니다. 

 

이렇게 기술의 발달은 우리에게 편리함을 줌과 동시에 의심을 가득 안고 살아야 하는 피곤한 세상도 선물해버렸습니다. 동전의 양면과도 같으니 어쩔 수 없는 걸까요? 


좋은 점은 없나?

이렇게 문제가 많으면 사용하지 못하게 하면 되는 것 아니냐? 생각할 수도 있겠습니다. 하지만 딥페이크가 유용하게 사용되는 경우도 없지는 않아요. 가령 영화에서 주인공의 어린 시절 아역을 딥페이크 기술을 활용해 재현할 수 있고, 학교 수업 시간에 역사적 인물이나 사건을 딥페이크로 재연해 학습을 효과적으로 도울 수도 있을 거예요. 또 보고 싶은 유명인을 부활 시킬 수도 있겠죠. 

 

웰컴투삼달리 송해 딥페이크.png
출처=.JTBC드라마 웰컴투삼달리

 

얼마 전 종영한 드라마 ‘웰컴투 삼달리’에서 딥페이크 기술을 활용해 국민 MC 송해를 부활시켰던 것처럼요! (물론 배우들의 초상권 등의 문제는 신경 써야 할 부분입니다.)

 

AI기술이 이렇게 유용하게만 사용되면 참 좋을텐데... 이시대 우리는 각자 살아갈 인생의 레시피에 ‘현명함’ 한 스푼을 추가해야 할 것 같아요. SNS에 나의 사진을 올릴 때도 신중하게 생각해 보기. 또 의심되는 영상이 있다면 바로 믿지 말고 딥페이크 사진, 혹은 영상은 아닐까 의심해 보고, 신뢰할 수 있는 출처에서 받은 정보인지 확인하며 AI 시대를 슬기롭게 살아가야겠습니다.

 

최근 방송통신위원회도 국내·글로벌 플랫폼이자 인공지능 기술 개발사인 네이버, 카카오, 구글, 메타, 엑스(옛 트위터), 바이트댄스(틱톡) 관계자가 참석한 가운데 딥페이크 자율 규제 현황 및 강화 방안 등에 대해 논의했다고 하죠. 딥페이크 허위 정보로 인한 개인 피해와 사회적 혼란을 예방하기 위해 법뿐만 아니라 플랫폼의 자정 노력등 다각도에서 관심과 노력이 필요한 시점인것 같습니다.

 

 


 

 

 




포토

 
모바일 버전으로 보기