[넥스트 테크] 딥페이크, 신기술의 빛과 그림자

기자정보, 기사등록일
윤경진 기자
입력 2019-09-17 13:59
    도구모음
  • 글자크기 설정
'딥페이크(deepfake)'는 인공지능(AI) 기술을 활용해 만든 가짜 영상이다. AI의 핵심기술인 딥러닝(심층학습)을 이용해 특정 인물의 얼굴이나 신체를 합성하고 억양, 목소리까지 그대로 흉내낼 수 있다. 그래서 '딥러닝(deep learning)'과 '가짜(fake)'를 합성해 딥페이크라 불린다. 

딥페이크가 등장하기 전에는 영상 합성을 위해 많은 인력과 자원이 필요했지만, 딥페이크는 합성하려는 사람의 고화질 영상이나 사진, AI만 있으면 만들 수 있다. 딥페이크가 정교한 합성이 가능한 이유는 두 가지 AI를 사용하기 때문이다. 한쪽에서 영상을 합성하면, 다른 AI가 구동돼 합성한 영상이 진짜인지 가짜인지를 감지한다. 이 때 영상이 가짜가 아니라고 판단될 때까지 합성을 반복해 정확도를 높이는 방식이다.
 

예술가 빌 포스터의 인스타그램 계정에 올라온 딥페이크 영상. [사진=빌 포스터 인스타그램]

지난 6월 마크 저커버그 페이스북 최고경영자(CEO)의 딥페이크 영상이 공개되는 소동도 있었다. 영상 속 저커버그는 "수십억명의 비밀과 사생활, 데이터를 완전히 통제하는 한 사람이 있다고 상상해보라"고 말했다. 사생활 침해 논란으로 몸살을 앓은 페이스북에 해가 되는 발언이었다. 이 딥페이크 영상은 영국의 디지털 예술가 빌 포스터와 인공지능 스타트업 캐니AI(CannyAI)가 함께 만들었다. 페이스북이 해당 동영상 배포를 제한해 논란이 커지자, 캐니AI는 딥페이크 영상으로 AI의 활용 가능성과 미래를 상상할 수 있는 계기가 될 것이라고 설명했다.

지난달에는 중국에서 딥페이크 영상을 스마트폰으로 만들 수 있는 애플리케이션 '자오(Zao)'가 등장했다. 자오는 스마트폰으로 찍은 사진 한 장이면 영화나 드라마 속 등장인물과 자신의 얼굴을 바꿔주는 기능을 선보이며 큰 호응을 얻었다. 하지만, 자오의 정책에 '이용자가 올린 사진을 업체가 사용할 수 있다'는 사실이 알려지면서 사기 등 악용 가능성에 대한 우려가 쏟아져 나왔다.

딥페이크로 가짜뉴스를 만들고 지인의 목소리를 흉내내 피싱 사기를 저지를 수 있게 되는 등 부정적인 활용사례가 나타날 것이란 우려가 나온다. 결국 인간사회의 신뢰가 무너질 것이라는 경고까지 나오고 있다. 하지만, 새로운 기술이 미래에 어떤 방식으로 쓰일지는 아무도 알 수 없다.

딥페이크가 원본과 가짜를 구분하는 뛰어난 학습능력을 가지고 있어서 X선과 CT, MRI의 자료를 보고 암의 징후나 신체의 변화를 정확히 찾아내 의료 진단 도구로 활용될 수도 있다는 연구보고가 나오기도 했다. 새로운 기술이 악용되는 사례를 막기 위한 노력은 계속돼야 하지만, 근거 없는 평가절하가 혁신의 불씨를 꺼뜨릴 수도 있다는 점도 명심해야 한다.  

©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지

컴패션_PC
0개의 댓글
0 / 300

로그인 후 댓글작성이 가능합니다.
로그인 하시겠습니까?

닫기

댓글을 삭제 하시겠습니까?

닫기

이미 참여하셨습니다.

닫기

이미 신고 접수한 게시물입니다.

닫기
신고사유
0 / 100
닫기

신고접수가 완료되었습니다. 담당자가 확인후 신속히 처리하도록 하겠습니다.

닫기

차단해제 하시겠습니까?

닫기

사용자 차단 시 현재 사용자의 게시물을 보실 수 없습니다.

닫기
실시간 인기
기사 이미지 확대 보기
닫기