"항복도 타협도 없다" AI의 전쟁법…알고리즘에는 핵·민간인 살상 공포가 없다

  • 반드시 결과 내야 하는 AI, 모든 시나리오에서 핵 버튼 눌러

그래픽아주경제
[그래픽=아주경제]

인공지능(AI)이 전장에서 종횡무진하는 가운데 알고리즘의 구조적 문제점이 드러나고 있다. 반드시 결과를 도출해 내야 하는 AI의 알고리즘이 핵 전쟁을 가속화하고 대량 민간인 살상도 주저하지 않는다는 연구 결과가 나와 주목된다.
 
16일 킹스 칼리지 런던의 케네스 페인 교수가 주도한 연구에 따르면 AI를 활용한 워게임 시뮬레이션에서 100% 확률로 핵 위협이 나타났다.
 
이 연구는 GPT-5.2, 클로드 소넷4, 제미나이3 플래시 등 최신 거대언어모델(LLM)을 21개 위기 시나리오에 투입해 AI의 전략적 의사결정을 분석했다. 총 329턴에 걸쳐 약 78만 단어의 추론 과정을 생성한 결과, 모든 시나리오에서 적어도 한쪽이 핵 신호를 보냈다. 95%의 시나리오에서는 상호 핵 위협이 생성됐다.
 
전술 핵 사용 문턱을 넘은 경우가 95%, 전략적 핵 위협으로 확대된 경우가 76%에 달했다. AI 모델들은 핵무기를 ‘합리적 전략 옵션’으로 취급했다. 불리한 경우에도 항복, 타협을 선택하는 대신 핵 위협을 선택해 공격성을 높였다. 

AI의 극단적 상황고조 경향은 AI 전술 체계의 더 근본적인 문제를 드러낸다. AI로 전쟁 수행 속도가 높아지며 정밀 타게팅의 신뢰성도 흔들리고 있다. 스웨덴 국방연구소(FOI)와 랜드코퍼레이션 연구에 따르면, AI는 목표 달성을 위해 적군 AI 타게팅 시스템을 교란해 군사 목표와 민간 시설을 구분하지 못하게 만든다. 

특정 패턴을 적군으로 학습시킨 뒤 민간 차량, 학교 건물에 동일 패턴을 적용하는 것만으로 AI는 군사 시설로 오인해 공격했다. 전쟁시 AI가 의도적으로 민간인을 공격하도록 교란하는 목적은 여론전에서 우위를 점하기 위해서인 것으로 나타났다. 
 
웨스트포인트 레이버 인스티튜트의 2025년 보고서도 유사한 위험을 지적한다. AI 간 전쟁에서 한쪽이 상대 AI의 센서 입력을 교란해 아군 민간인을 공격하도록 유도하는 시나리오가 등장한다. 노이즈 주입이나 위장 패턴으로 AI 비전 시스템을 속이면 타겟팅 정확도가 급락한다.
 
미국의 이란 공습에서 메이븐 시스템의 AI가 오래된 데이터나 이미지 인식 오류로 초등학교를 IRGC 관련 시설로 잘못 분류했을 가능성이 제기된다. 컴퓨터 과학 연구들은 AI의 취약성를 반복 확인하며, 훈련 데이터를 벗어나는 상황에서 오류율이 25~50%에 이를 수 있다고 밝힌다.
 
자동화 편향과 결합되면 문제는 더 심각해진다. 인간 지휘관이 AI의 빠른 추천을 과도하게 신뢰하면 낮은 신뢰도의 타겟도 승인하게 된다. 그 결과 민간인 사상자가 증가하고, 국제인도법 위반 논란도 불가피해진다. 과거 가자 지구에서 이스라엘의 AI 타겟팅 시스템이 민간인을 과도하게 식별한 사례처럼, 속도 중심의 AI 전술은 부수적 피해를 체계적으로 확대할 위험이 있다는 지적이다.
 
전문가들은 AI의 ‘블랙박스’ 성격을 해결하기 위해 인간 최종 결정 원칙 강화와 모델 강건성 테스트를 강조하고 있다. 국제연합(UN)에서도 이 같은 내용을 논의할 계획이지만 미국이 부정적인 입장을 취하고 있어 통과는 어렵다는 관측이 지배적이다.

©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지

컴패션_PC
댓글0
0 / 300

댓글을 삭제 하시겠습니까?

닫기

로그인 후 댓글작성이 가능합니다.
로그인 하시겠습니까?

닫기

이미 참여하셨습니다.

닫기