개인정보 보호, 인공지능(AI) 윤리 법제를 강화해야 한다는 연구 결과가 나왔다. ‘제2의 이루다 사태’를 막기 위해서다.

국회입법조사처 신용우·정준화 입법조사관은 15일 '이루다를 통해 살펴본 인공지능 활용의 쟁점과 과제' 보고서를 발간할 예정이다.

이루다는 지난해 12월 스타트업 스캐터랩이 페이스북 메신저를 기반으로 출시한 AI 챗봇이다. 이후 스캐터랩이 개인정보보호법을 위반한 정황이 드러나 서비스 3주 만에 운영이 중단됐다. 현재 개인정보보호위원회가 이를 조사 중이다.

입법조사처 보고서는 "이루다 사례는 우리 삶에서 빠르게 확산하고 있는 인공지능이 초래하게 될 불완전성과 위험의 단면을 분명하게 보여준다"고 평가했다.

입법조사처는 스캐터랩의 개인정보 수집 방식에 대해 “개인정보를 수집할 때 모든 항목에 형식적으로 사전 동의하게 했다"며 "형식적인 동의는 정보 주체의 자기결정권을 보장하는 게 아니라 개인정보 처리자의 정당화 수단으로 사용된다"고 전했다.

보고서는 개인정보 보호 법제를 개선해 개인정보 사전 동의의 실효성을 강화하고 사후 통제 수단을 도입하는 방안을 검토해야 한다고 지적했다.

보고서는 "미국·유럽 등의 입법·정책을 참고해 고위험 분야에는 사전 점검 체계를, 그 외 분야에는 자율규제 또는 품질 인증 체계를 검토할 필요가 있다"며 "사전 점검 방안으로는 투명한 정보 제공, 인간의 개입 등 실효성 있는 기준이 필요하다"고 제언했다.

이외에도 정부가 인공지능 학습 데이터를 확보하기 위한 노력을 강화해야 한다고 설명했다.
 

스캐터랩의 AI 챗봇 이루다 이미지[사진=이루다 페이스북 캡처]


©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지

컴패션_PC
네티즌 의견 0
0 / 300

실시간 인기

공유하기
닫기
기사 이미지 확대 보기
닫기
페이지 상단으로