[AI 업계 11월 동향] ② AI 선구자 제프리 힌튼 교수 “딥러닝의 무한한 잠재력 확신"

기자정보, 기사등록일
강일용 기자
입력 2020-11-19 08:05
    도구모음
  • 글자크기 설정
  • 최근 잇따른 딥러닝 기술의 한계 지적에 "기술 발전으로 문제를 해결하는 선순환 가능하다" 밝혀

[사진=게티이미지뱅크 제공]

현재 인공지능(AI) 기술의 핵심인 딥러닝(인공신경망 기반 심층학습) 기술의 아버지라 평가받는 제프리 힌튼 토론토대 교수가 MIT 테크놀러지리뷰와 인터뷰에서 "오늘날 AI 황금기를 견인하는 딥러닝 기술의 미래는 매우 밝다"고 강조했다.

19일 MIT 테크놀러지 리뷰에 따르면, 제프리 힌튼 교수는 딥러닝의 기반이 되는 인공신경망 연구에 평생을 바쳐, 오차역전파법, 심층신뢰신경망 구현, 딥러닝 AI 모델로 이미지 인식 경진대회 우승 등 AI의 역사에 큰 이정표를 남긴 인물이다.

그는 AI가 인간의 상식을 갖출지에 대한 질문에 "AI가 사물을 제어하고 움직임을 자연어로 설명하는 것을 보면 불가능한 일이라고 말하기 어렵다. 결국 해낼 것이다"고 답했다. 예를 들어 현재 딥러닝은 서랍을 열고 물건을 꺼내는 동작 제어가 가능하고, 동시에 또 다른 딥러닝 모델이 이를 관찰한 후 "서랍을 열고 물건을 꺼냈다"고 표현이 가능한 수준에 도달한 상태다.

힌튼 교수는 딥러닝이 인간과 대등한 지능 수준에 도달할 수 있는 근거로 최근 달성한 △개념적 돌파구 마련 △대형모델의 부상 등을 언급했다.

개념적 돌파구의 대표적인 사례로는 2017년 공개된 트랜스포머를 꼽았다. 트랜스포머는 기존 자연어 처리에 활용했던 순환신경망(RNN)과 달리 병렬처리가 가능해 AI 모델 학습 속도와 성능이 대폭 개선된 것이 특징이다. 또한 트랜스포머는 인지과학의 가설에서 출발한 어텐션 메커니즘을 활용하고 있으며, GPT-3 등 현재 최고 수준의 자연어 처리 기술은 모두 트랜스포머를 활용 중이다.

또한 대형모델의 부상으로 GPT-3와 같이 대량의 자연어 데이터를 분석할 수 있는 대형 신경망 개발에도 진전이 있었다. 오픈AI가 공개한 점용 자연어 처리 모델인 GPT-3는 생성적 사전학습 모델을 바탕으로 기존 버전보다 100배 이상 커진 AI 모델을 구현하는 데 성공했다.

현재 GPT-3는 1750억개의 모수를 갖고 있어, 약 100조개 이상의 시냅스를 갖춘 인간의 뇌보다 현저히 적은 처리 능력을 가지고 있지만, 신경망이 대형화될 수록 인간의 두뇌와 유사한 처리능력을 갖출 것으로 기대된다.

소프트웨어정책연구소는 최근 딥러닝 기반 AI 기술의 한계에 대한 우려가 조심스럽게 제기되는 상황이지만, 그럼에도 한계를 극복하기 위한 딥러닝 기술의 발전에 주목할 필요성이 있다고 설명했다.

경제주간지 이코노미스트는 최근 AI 기술이 엄청난 양의 학습 데이터를 요구하고, 과도한 클라우드 컴퓨팅 비용을 발생시키는 난관에 봉착하는 등 기술의 암흑기가 도래하고 있다고 지적했다.

반면 차세대 컴퓨팅 기술 개발과 학습 부담을 줄인 AI 기술이 등장하며 기술적 한계를 극복하려는 움직임도 활발해지고 있다. 예를 들어 처음부터 AI 학습과 실행에 특화된 뉴로모픽 칩셋이나 양자컴퓨터 등은 AI 기술을 획기적으로 발전시킬 계기가 될 것으로 기대받고 있다.

실제로 글로벌 AI 거장 중 한 명인 요슈아 벤지오 몬트리올대 교수(엘리먼트 AI 공동 CEO)는 최근 '삼성 AI 포럼 2020'에서 "인과 모델을 활용해 학습에 덜 의존적인 차세대 AI 모델을 개발 중"이라고 밝힌 바 있다.

©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지

컴패션_PC
0개의 댓글
0 / 300

로그인 후 댓글작성이 가능합니다.
로그인 하시겠습니까?

닫기

댓글을 삭제 하시겠습니까?

닫기

이미 참여하셨습니다.

닫기

이미 신고 접수한 게시물입니다.

닫기
신고사유
0 / 100
닫기

신고접수가 완료되었습니다. 담당자가 확인후 신속히 처리하도록 하겠습니다.

닫기

차단해제 하시겠습니까?

닫기

사용자 차단 시 현재 사용자의 게시물을 보실 수 없습니다.

닫기
실시간 인기
기사 이미지 확대 보기
닫기