“기업들, 인공지능 윤리강령 만들어 책임 강화해야”

기자정보, 기사등록일
장은영 기자
입력 2020-09-28 08:59
    도구모음
  • 글자크기 설정
최근 산업계에서는 인공지능(AI)이 화두입니다. 미국 전기차 업체 테슬라의 일론 머스크는 지난 22일 “한 달 내 완전 자율주행이 가능한 차를 내놓겠다”고 밝혔습니다. AI 기술을 통해 사람이 운전대를 잡지 않아도 차량이 알아서 움직이는 것입니다.

하지만 AI가 발전할수록 문제도 있습니다. 바로 ‘윤리’입니다. AI의 윤리적 사용을 위해 기업들이 윤리 강령을 만드는 등 대책을 마련해야 한다는 조언이 나옵니다.

국회 입법조사처가 지난 25일 발간한 이슈와 논점 보고서에 따르면, AI의 부작용을 방지하기 위해 각국은 AI 윤리 활동을 강화하고 있습니다.

유럽연합집행위원회는 ‘신뢰할 수 있는 인공지능을 위한 윤리 가이드라인’을 발표했고, 프랑스는 대통령 주도 아래 유럽의 AI 관련 규정을 개정했습니다.

우리나라의 경우 지난해 12월 발표된 국내 AI 전략에서 사람 중심의 인공지능 구현을 제시하고, 안전한 인공지능 사용을 위한 역기능 방지와 AI 윤리 정립을 제안했습니다.

국회 입법조사처는 기업도 AI 윤리 책임을 강화하는 제도를 마련할 필요가 있다고 강조했습니다.

미국 브루킹스연구소가 주최한 AI 윤리적 딜레마 대책 논의 토의에서는 이러한 제도로 윤리 전문가 채용, AI 윤리강령 제정, AI 검토위원회 설치, AI 감사 추적 필요, AI 교육 프로그램 구현, 인공지능 피해 또는 상해 회복방안 제공 등 6가지 방안을 제안했습니다.

입법조사처 관계자는 “기업 수준에 맞는 사항을 도입하면 부담이 줄어들 것”이라며 “AI를 개발하고 사용한 기업은 최소한 AI 윤리강령 제정, AI 감사 추적과 인공지능 피해 또는 상해 회복방안을 준비할 필요가 있다”고 말했습니다.

AI 피해에 대한 배상책임 제도도 보완해야 한다고 조언했습니다. 시스템 설계대로 AI를 사용했음에도 불구하고 의도하지 않은 위험이 나타날 수 있기 때문입니다.

이에 입법조사처는 AI의 특성을 고려해 책임 요건을 규정할 필요가 있고, 누구에게도 책임을 돌릴 수 없는 손해의 경우 이를 배상하기 위한 보험제도 도입을 검토해볼 필요가 있다고 전했습니다.
 

[사진=게티이미지뱅크]


©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지

컴패션_PC
0개의 댓글
0 / 300

로그인 후 댓글작성이 가능합니다.
로그인 하시겠습니까?

닫기

댓글을 삭제 하시겠습니까?

닫기

이미 참여하셨습니다.

닫기

이미 신고 접수한 게시물입니다.

닫기
신고사유
0 / 100
닫기

신고접수가 완료되었습니다. 담당자가 확인후 신속히 처리하도록 하겠습니다.

닫기

차단해제 하시겠습니까?

닫기

사용자 차단 시 현재 사용자의 게시물을 보실 수 없습니다.

닫기
실시간 인기
기사 이미지 확대 보기
닫기