"제2의 이루다 사태 막자"... 이제 AI 서비스도 인증 받아야

기자정보, 기사등록일
정명섭 기자
입력 2021-05-13 15:30
    도구모음
  • 글자크기 설정
  • 과기정통부 '신뢰할 수 있는 인공지능 실현전략' 발표

  • 3대 전략, 10대 실천과제 제시... 2025년까지 단계적 추진

  • 기술 스타트업 위한 AI 서비스 지원 원스톱 플랫폼도 구축

최근 각종 혐오 발언과 개인정보 유출로 논란이 된 인공지능(AI) 챗봇 ‘이루다’ 사태의 재발을 막기 위한 AI 서비스 인증제도가 마련된다. 금전적, 기술적 한계가 있는 스타트업들이 AI 서비스에 문제가 없는지 진단하고 시험할 수 있는 플랫폼도 개발된다.

과학기술정보통신부는 13일 대통령 직속 4차산업혁명위원회(이하 4차위) 전체회의에서 이같은 내용을 담은 ‘신뢰할 수 있는 인공지능 실현전략’을 발표했다.

과기정통부는 2025년까지 추진할 3대 전략과 10대 실행과제를 제시했다. 먼저 이루다 사태의 재발을 막기 위해 AI 기술이 접목된 제품과 서비스를 구현할 때 참고할 수 있는 가이드북을 내놓는다. 개발사들은 이를 통해 관련법과 제도, 윤리, 기술적 요구사항을 파악할 수 있다.

또한 가이드북이 제시한 대로 서비스가 제대로 개발됐는지 검증하는 체계를 마련하고, 이를 통과한 제품과 서비스는 인증을 받는 제도도 도입한다. 과기정통부는 인증을 민간 자율에 맡기고 공시하도록 한다는 방침이다.

자금 상황이 열악한 기술 스타트업이 쉽게 서비스를 검증받을 수 있도록 지원하는 원스톱 플랫폼도 운영된다. 학습용 데이터를 지원하는 ‘AI 허브’ 플랫폼에서 AI 서비스를 테스트할 수 있는 기능을 추가한다는 계획이다.

 

[사진=게티이미지뱅크 제공]


과기정통부는 AI가 스스로 판단 기준을 설명하고, 법과 제도, 윤리적 편향성을 진단하고 제거할 수 있는 원천기술 확보에도 나선다. 현재 2022년부터 2026년까지 650억원을 들여 관련 AI 기술을 개발하는 방안이 예비타당성 조사를 통과했다.

이외에도 기업들이 활용하는 학습용 데이터가 적합한지 검증하는 지표를 개발하고, 얼굴 인식 AI와 같이, 범죄에 남용될 수 있는 위험 기술에 대해선 서비스 제공 전에 이용자에게 관련 내용을 고지하도록 한다는 방침이다. 앞서 이루다는 이용자들의 데이터를 무분별하게 학습해 각종 혐오 표현을 하게 됐다는 비판을 받았다.

조경식 과기정통부 2차관은 “이루다 사건은 우리 사회가 인공지능의 신뢰성에 대해 어떻게 대처해야 하는 지 많은 숙제를 안기는 계기가 됐다”며 “기업·연구자 등이 인공지능 제품·서비스 개발 과정에서 혼란을 겪거나, 이로 인해 국민이 피해를 보지 않도록 인공지능 신뢰성 확보 기준을 명확화하겠다”고 말했다.

해외 주요 국가도 AI 서비스의 신뢰성을 확보하기 위해 관련 제도를 도입하는 추세다. 유럽연합(EU)은 지난달 고위험 AI를 규제하기 위한 ‘AI 법안’을 제안했고, 미국은 지난해 AI의 신뢰 확보를 위한 10대 원칙을 발표했다.

한편 이날 4차위는 사업자등록번호를 공공데이터로 개방해 다른 기업 데이터와 함께 활용토록 하는 방안을 심의했다. 또한 4차위는 블록체인과 AI 반도체 같은 미래 이슈를 논의하는 ‘4차위 미래 포럼(가칭)’을 월 1회 정기적으로 열고, 미래 교육과 고용 등을 다루는 연구반을 운영한다는 계획이다. 

 

AI 챗봇 이루다 이미지[사진=스캐터랩 제공]


©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지

컴패션_PC
0개의 댓글
0 / 300

로그인 후 댓글작성이 가능합니다.
로그인 하시겠습니까?

닫기

댓글을 삭제 하시겠습니까?

닫기

이미 참여하셨습니다.

닫기

이미 신고 접수한 게시물입니다.

닫기
신고사유
0 / 100
닫기

신고접수가 완료되었습니다. 담당자가 확인후 신속히 처리하도록 하겠습니다.

닫기

차단해제 하시겠습니까?

닫기

사용자 차단 시 현재 사용자의 게시물을 보실 수 없습니다.

닫기
실시간 인기
기사 이미지 확대 보기
닫기