AI 시대의 행정에서 가장 중요한 질문은 이것이다. “이 결정은 어떤 기준으로 내려졌는가.” 지방행정 곳곳에서 AI와 데이터 분석이 활용되고 있다. 복지 대상자 선정, 위험 예측, 교통 체계 개선, 행정 서비스 우선순위 결정까지 자동화된 판단이 개입하지 않는 영역을 찾기 어렵다. 그러나 시민에게 제공되는 설명은 여전히 부족하다. “시스템상 그렇게 나왔다”는 말은 편리하지만, 납득 가능한 설명은 아니다. 설명 책임은 선택 사항이 아니다. 민주 행정의 기본 원칙이다. 기술이 개입할수록 설명의 필요성은 줄어드는 것이 아니라 오히려 커진다. 사람이 직접 판단했을 때보다, 알고리즘이 개입한 결정일수록 기준과 절차를 더 명확히 밝혀야 한다. 그래야 행정은 신뢰를 유지할 수 있다.
특히 지방행정에서 이 문제는 더 중요하다. 중앙정부보다 시민과의 거리가 가깝기 때문이다. 주민은 정책의 결과를 추상적 통계가 아니라 일상의 변화로 체감한다. 복지 대상에서 제외된 이유, 교통 정책이 바뀐 근거, 지원 순위가 달라진 배경을 설명하지 못하는 행정은 쉽게 불신을 낳는다. AI 분석 결과가 ‘전문 영역’이라는 이유로 설명에서 제외되는 순간, 행정은 민주적 통제에서 벗어난다. 시민은 더 이상 정책의 주체가 아니라 알고리즘의 결과를 통보받는 객체로 전락한다. 자동화된 효율은 높아질지 모르지만, 민주주의는 후퇴한다.
AI 리터러시를 갖춘 리더란 기술을 설명할 줄 아는 사람이 아니다. 시민이 이해할 수 있는 언어로 판단의 구조를 풀어낼 수 있는 사람이다. 어떤 데이터가 사용됐고, 어떤 기준이 적용됐으며, 예외와 이의 제기는 어떻게 처리되는지를 말할 수 있어야 한다. 이 설명 능력이 곧 민주적 책임이다.
아주경제가 말하는 ‘AI 선수’는 기술 친화적 이미지를 가진 후보가 아니다. 설명 책임을 회피하지 않는 리더다. 효율보다 신뢰를 먼저 고려하는 리더다. 자동화를 말할수록, 더 많은 설명을 약속할 수 있는 리더다. AI 행정은 숨겨질수록 위험해진다. 투명할수록 민주적이 된다.
6·3 지방선거, 이제는 이렇게 물어야 한다.
AI가 아니라 설명하는 사람이 보이는 행정을 만들 수 있는가.
AI 선수를 뽑는다는 것은, 결국 그 설명 책임을 감당할 리더를 선택하는 일이다.
©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지


![[르포] 중력 6배에 짓눌려 기절 직전…전투기 조종사 비행환경 적응훈련(영상)](https://image.ajunews.com/content/image/2024/02/29/20240229181518601151_258_161.jpg)



