
과학기술정보통신부가 2026년 1월 시행을 앞둔 '인공지능(AI)기본법'의 하위법령 제정을 본격화했다. 이번 제정안은 글로벌 규범 동향을 반영하면서도 국내 산업계의 부담을 줄이는 데 초점을 맞췄다. 생성형 AI가 만든 이미지, 영상, 텍스트 등에는 워터마크(출처 표기)가 의무화돼 국민이 AI 생성물을 명확히 인식할 수 있도록 하고, 안전하고 신뢰할 수 있는 AI 활용 환경을 조성한다는 방침이다.
과학기술정보통신부 인공지능기반정책관은 17일 서울 시청역 상연재 별관에서 내년 1월 AI기본법 시행을 앞두고 하위법령 제정 작업에 착수했다며 이같이 밝혔다.
과기정통부는 AI를 사용한 작업물은 사전에 고지하거나 결과물에 워터마크를 표시하는 것이 의무화하기로 했다. 다만, 육안으로 확인할 수 없고 웹사이트나 전용 프로그램을 통해 AI 활용 여부를 확인할 수 있는 ‘비가시적 워터마크’도 허용된다.
심지섭 과학기술정보통신부 인공지능정책관 사무관은 “모든 워터마크를 가시적으로 표시하면 생성형 AI 결과물을 활용하는 콘텐츠 산업이나 개인 창작 활동에 제약이 생길 수 있다”고 설명했다.
국민 생명과 안전에 큰 영향을 미칠 수 있는 ‘고영향AI’에 대한 별도 관리 기준도 마련했다. 고영향AI는 생명·신체·기본권에 중대한 영향을 미치거나 위험을 초래할 수 있는 인공지능 시스템을 말하며, 에너지 공급, 보건의료, 원자력, 교통, 교육 등 사회 핵심 영역이 대표적이다.
고영향AI 관련 사업자는 위험관리 조직을 구성해 위험을 체계적으로 식별·평가·완화해야 하며, AI 도출 결과와 학습 데이터 개요를 이용자에게 설명할 수 있는 절차를 갖춰야 한다. 또 데이터 수집·처리 과정의 합법성과 안전성을 보장하고, 운영 단계에서는 모니터링·피드백 체계를 마련해 이용자 권리를 보호해야 한다. 긴급 정지나 오류 발생 시 인간이 즉각 개입할 수 있도록 관리·감독 기준도 포함된다.
고성능 AI에 대한 안전성 확보 의무도 신설됐다. 누적 연산량이 10의 26승 부동소수점 연산 이상인 최첨단 AI시스템은 안전성 검증 대상이 된다. 해당 사업자는 기능 오류, 데이터 편향, 보안 취약점, 악용 가능성 등 잠재적 위험을 전 주기에 걸쳐 관리해야 하며, 그 결과를 3개월 이내에 정부에 제출해야 한다.
특히 생성형·고영향AI에는 사전 고지와 워터마크 표시가 의무화되고, 딥페이크 콘텐츠는 청소년 대상 서비스의 경우 시각적으로 명확히 표시하고 시각장애인을 위한 서비스에는 음성 안내 방식이 적용되는 등 상황별 맞춤형 고지 방안이 마련됐다.
법 시행 초기에는 기업의 적응 부담을 완화하기 위해 약 1년 동안의 과태료 계도기간이 운영된다. 사전 고지 의무 미이행, 해외 사업자의 국내 대리인 미지정, 시정명령 미이행 등 위반 사항이 발생해도 일정 기간 과태료를 부과하지 않고 행정지도 위주로 대응한다.
정부는 기업이 제도에 연착륙할 수 있도록 컨설팅과 비용 지원을 병행할 예정이며, 내년에는 안전·신뢰 검증 및 영향평가 지원을 위해 약 20억 원 규모의 예산도 확보했다.
이번 하위법령 제정은 AI산업 진흥과 안전·신뢰 확보라는 두 축을 균형 있게 반영하려는 취지다. 과기정통부는 올해 1월부터 민간 전문가, 산업계, 시민단체 등과 70차례 넘는 논의를 거쳐 초안을 마련했으며, 국가AI전략위원회 보고와 공청회를 통해 의견을 수렴해왔다.
앞으로 정부는 9~10월 산·학·연, 시민단체, 해외 기업을 대상으로 추가 의견을 수렴한 뒤 10월 입법예고를 거쳐 연내 시행령과 가이드라인을 확정·공개할 계획이다.
김경만 과기정통부 인공지능기반정책관은 “가이드라인은 3~4개월 의견 수렴을 거쳐 확정되나, AI 기술 변화 속도가 빨라 수시로 수정될 수 있다”며 “국내외에서 규제가 필요하다는 국제적 공감대가 형성되면 가이드라인에 들어가 고정적인 규제 체계가 될 것”이라고 밝혔다.
©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지