[넥스트 테크] 딥페이크, 신기술의 빛과 그림자

윤경진 기자입력 : 2019-09-17 13:59
'딥페이크(deepfake)'는 인공지능(AI) 기술을 활용해 만든 가짜 영상이다. AI의 핵심기술인 딥러닝(심층학습)을 이용해 특정 인물의 얼굴이나 신체를 합성하고 억양, 목소리까지 그대로 흉내낼 수 있다. 그래서 '딥러닝(deep learning)'과 '가짜(fake)'를 합성해 딥페이크라 불린다. 

딥페이크가 등장하기 전에는 영상 합성을 위해 많은 인력과 자원이 필요했지만, 딥페이크는 합성하려는 사람의 고화질 영상이나 사진, AI만 있으면 만들 수 있다. 딥페이크가 정교한 합성이 가능한 이유는 두 가지 AI를 사용하기 때문이다. 한쪽에서 영상을 합성하면, 다른 AI가 구동돼 합성한 영상이 진짜인지 가짜인지를 감지한다. 이 때 영상이 가짜가 아니라고 판단될 때까지 합성을 반복해 정확도를 높이는 방식이다.
 

예술가 빌 포스터의 인스타그램 계정에 올라온 딥페이크 영상. [사진=빌 포스터 인스타그램]

지난 6월 마크 저커버그 페이스북 최고경영자(CEO)의 딥페이크 영상이 공개되는 소동도 있었다. 영상 속 저커버그는 "수십억명의 비밀과 사생활, 데이터를 완전히 통제하는 한 사람이 있다고 상상해보라"고 말했다. 사생활 침해 논란으로 몸살을 앓은 페이스북에 해가 되는 발언이었다. 이 딥페이크 영상은 영국의 디지털 예술가 빌 포스터와 인공지능 스타트업 캐니AI(CannyAI)가 함께 만들었다. 페이스북이 해당 동영상 배포를 제한해 논란이 커지자, 캐니AI는 딥페이크 영상으로 AI의 활용 가능성과 미래를 상상할 수 있는 계기가 될 것이라고 설명했다.

지난달에는 중국에서 딥페이크 영상을 스마트폰으로 만들 수 있는 애플리케이션 '자오(Zao)'가 등장했다. 자오는 스마트폰으로 찍은 사진 한 장이면 영화나 드라마 속 등장인물과 자신의 얼굴을 바꿔주는 기능을 선보이며 큰 호응을 얻었다. 하지만, 자오의 정책에 '이용자가 올린 사진을 업체가 사용할 수 있다'는 사실이 알려지면서 사기 등 악용 가능성에 대한 우려가 쏟아져 나왔다.

딥페이크로 가짜뉴스를 만들고 지인의 목소리를 흉내내 피싱 사기를 저지를 수 있게 되는 등 부정적인 활용사례가 나타날 것이란 우려가 나온다. 결국 인간사회의 신뢰가 무너질 것이라는 경고까지 나오고 있다. 하지만, 새로운 기술이 미래에 어떤 방식으로 쓰일지는 아무도 알 수 없다.

딥페이크가 원본과 가짜를 구분하는 뛰어난 학습능력을 가지고 있어서 X선과 CT, MRI의 자료를 보고 암의 징후나 신체의 변화를 정확히 찾아내 의료 진단 도구로 활용될 수도 있다는 연구보고가 나오기도 했다. 새로운 기술이 악용되는 사례를 막기 위한 노력은 계속돼야 하지만, 근거 없는 평가절하가 혁신의 불씨를 꺼뜨릴 수도 있다는 점도 명심해야 한다.  

창간12주년 이벤트 아주탑골공원

©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지

  • 네티즌 의견 0
    0 / 300

    실시간 급상승

    9.9초 더보기
    2019아주경제 고용·노동 포럼
    창간12주년 이벤트 아주탑골공원

    아주 글로벌