
방위성은 전날 발표한 지침에서 인간이 관여하지 않아도 AI가 자율적으로 목표물을 정해 교전하는 '치명적 자율무기(LAWS)'는 연구·개발을 허용하지 않기로 하고, AI 무기 개발 시 인간 책임을 명확히 한다고 규정했다.
AI 탑재 무기 연구·개발 심사는 세 단계로 진행된다. 우선 AI 무기를 '고위험'과 '저위험'으로 나눈다. 고위험은 AI가 대상을 특정해 바로 공격할 수 있는 무기, 저위험은 공격 시 인간 판단이 개입되는 무기가 해당한다.
고위험 무기로 분류되면 국제법·국내법을 준수하는지, LAWS로 볼 수 있는지 등 법률 관련 심사를 한다. LAWS로 판단되면 연구·개발을 허용하지 않는다. 이어 인간의 AI 무기 통제 여부와 안전성 등 기술 관련 심사를 실시한다.
아사히는 "AI 무기는 잘못된 판단을 할 우려가 있어서 국제적으로 개발 규제 방식이 논의되고 있다"며 "이번 지침은 AI 위험성 관리의 기준을 보여준 것으로, 일본 내에서 무기 개발 시 AI 활용을 촉진하려는 의도도 있다"고 전했다.
©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지