​정재승 KAIST 교수 연구팀, 생각만으로 로봇 움직이는 기술 개발

기자정보, 기사등록일
이상우 기자
입력 2022-02-23 13:06
    도구모음
  • 글자크기 설정
  • 인공지능으로 뇌파 인식해 로봇에 명령 제어

  • 24가지 방향으로 평균 90% 이상 정확도 보여

  • 향후 메타버스 아바타 등 다양한 분야에도 접목 가능

정재승 KAIST 바이오및뇌공학과 교수[사진=KAIST]

정재승 KAIST 바이오및뇌공학과 교수 연구팀이 3차원 공간상에서 생각만으로 로봇팔을 조종하는 '뇌-기계 인터페이스 시스템'을 개발했다고 23일 밝혔다. 조작 정확도는 90%이상이다.

정 교수 연구팀은 인공지능(AI)과 유전자 알고리즘을 사용해 인간의 대뇌 심부에서 측정한 뇌파로 팔 움직임 의도를 파악하고, 로봇팔을 제어하는 시스템을 개발했다. 뇌 활동만으로 사람의 의도를 파악해 로봇이나 기계가 대신 행동에 옮기는 뇌-기계 인터페이스 기술은 최근 급속도로 발전하고 있다. 하지만 손을 움직이는 정도의 의도 파악을 넘어, 팔 움직임의 방향에 대한 의도를 섬세하게 파악해 정교하게 로봇팔을 움직이는 기술은 그간 정확도가 높지 않았다. 

연구팀은 이번 연구에서 조종 방향에 대한 의도를 뇌 활동만으로 인식하는 AI 모델을 개발했고, 그 결과 3차원 공간상에서 24개의 방향을 90% 이상의 정확도로 정교하게 해석하는 시스템을 개발했다. 

게다가 딥러닝 등 기존 기계학습 기술은 높은 사양의 GPU 하드웨어가 필요했지만, 이번 연구에서는 축적 컴퓨팅(Reservoir Computing) 기법을 이용해 낮은 사양의 하드웨어에서도 AI 학습이 가능하다. 이를 통해 모바일 기기에서도 폭넓게 응용될 수 있도록 개발할 수 있으며, 향후 메타버스나 스마트 기기에도 폭넓게 적용이 가능할 것으로 기대된다.

김훈희 KAIST 박사가 제1저자로 참여한 이번 연구는 국제학술지 '어플라이드 소프트 컴퓨팅(Applied Soft Computing)' 2022년 117권 3월호에 출판됐다.

뇌-기계 인터페이스는 사용자의 뇌 활동을 통해 의도를 읽고 로봇이나 기계에 전달하는 기술이다. 로봇, 드론, 컴퓨터뿐만 아니라 스마트 모바일 기기, 메타버스 등에서의 이용될 차세대 인터페이스 기술로 각광받고 있다.

특히 기존 인터페이스가 외부 신체 기관을 통해 명령을 간접 전달(버튼, 터치, 제스처 등)해야 하지만 뇌-기계 인터페이스는 명령을 뇌로부터 직접적 전달받는, 가장 진보된 인터페이스로 꼽힌다.

하지만 뇌파는 개개인의 차이가 매우 크고, 단일 신경 세포로부터 정확한 신호를 읽는 것이 아니라 넓은 영역에 있는 신경 세포 집단의 전기적 신호 특성을 해석해야 하므로 신호 잡음이 크다는 한계점을 가지고 있다.

연구팀은 이러한 문제 해결을 위해 AI 기법인 축적 컴퓨팅을 이용해 인터페이스에서 필요한 뇌파 신호 중요 특성을 인공신경망이 자동으로 학습해 찾을 수 있도록 구현했다.

또한 유전자 알고리즘(Genetic Algorithm)을 이용해 AI 신경망이 최적의 뇌파 특성을 효율적으로 찾을 수 있게 시스템을 설계했다. 연구팀은 심부 뇌파를 최종 해석하는 리드아웃(Readout)을 가우시안(Gaussian) 모델로 설계해 시각피질 신경 세포가 방향을 표현하는 방법을 모방하는 인공신경망을 개발했다. 이런 리드아웃 방식은 축적 컴퓨팅의 선형 학습 알고리즘을 이용해 일반적 사양의 간단한 하드웨어에서도 빠르게 학습할 수 있어 메타버스, 스마트기기 등 일상생활에서 응용이 가능해진다. 

특히, 이번 연구에서 만들어진 뇌-기계 인터페이스 AI 모델은 3차원상에서 24가지 방향으로 디코딩할 수 있으며, 모든 방향에서 90.9~92.6%의 정확도를 보였다. 또한 연구된 뇌-기계 인터페이스는 3차원 공간상에서 로봇팔을 움직이는 상상을 할 때의 뇌파를 해석해 성공적으로 로봇팔을 움직이는 시뮬레이션 결과를 보였다.

김훈희 박사는 "공학적인 신호처리 기법에 의존한 기존 뇌파 디코딩 방법과는 달리, 인간 뇌의 실제 작동 구조를 모방한 인공신경망을 개발해 좀더 발전된 형태의 뇌-기계 인터페이스 시스템을 개발해 기쁘다"며 "향후 뇌의 특성을 좀 더 구체적으로 이용한 '뇌 모방 AI'를 통해 다양한 인터페이스를 개발할 계획"이라고 말했다.

정재승 교수는 "뇌파를 통해 생각만으로 로봇팔을 구동하는 뇌-기계 인터페이스 시스템은 대부분 고사양 하드웨어가 필요해 실시간 응용으로 나아가기 어렵고, 스마트 기기 등에 적용이 어려웠다. 그러나 이번 시스템은 90%~92%의 높은 정확도를 가진 AI를 기반으로 메타버스 안에서 아바타를 생각대로 움직이게 하거나 앱을 생각만으로 제어하는 스마트 기기 등에 광범위하게 사용될 수 있다"고 말했다.

이번 연구 결과는 사지마비 환자나 사고로 팔을 잃은 환자들을 위한 로봇팔 장착 및 제어 기술부터, 메타버스, 스마트 기기, 게임, 엔터테인먼트 애플리케이션 등 다양한 시스템에 뇌-기계 인터페이스를 적용할 가능성을 열어 줄 것으로 기대된다. 

한편, 이번 연구는 한국연구재단 뇌 원천기술개발사업의 지원을 받아 수행됐다.

©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지

컴패션_PC
0개의 댓글
0 / 300

로그인 후 댓글작성이 가능합니다.
로그인 하시겠습니까?

닫기

댓글을 삭제 하시겠습니까?

닫기

이미 참여하셨습니다.

닫기

이미 신고 접수한 게시물입니다.

닫기
신고사유
0 / 100
닫기

신고접수가 완료되었습니다. 담당자가 확인후 신속히 처리하도록 하겠습니다.

닫기

차단해제 하시겠습니까?

닫기

사용자 차단 시 현재 사용자의 게시물을 보실 수 없습니다.

닫기
실시간 인기
기사 이미지 확대 보기
닫기