[아주사설 | 6·3 지방선거, AI 선수를 뽑자] ⑨  '스마트 시티'라는 말은 충분히 검증됐는가

AI는 행정을 더 빠르고 효율적으로 만들 수 있다. 문제는 그 과정이 보이지 않게 진행된다는 점이다. 알고리즘은 배경에서 작동하고, 결정은 숫자와 점수의 형태로 제시된다. 그 결과 시민은 어느 순간, 왜 이런 결과가 나왔는지 설명을 듣지 못한 채 행정의 대상이 된다.

AI 시대의 행정에서 가장 중요한 질문은 이것이다. “이 결정은 어떤 기준으로 내려졌는가.” 지방행정 곳곳에서 AI와 데이터 분석이 활용되고 있다. 복지 대상자 선정, 위험 예측, 교통 체계 개선, 행정 서비스 우선순위 결정까지 자동화된 판단이 개입하지 않는 영역을 찾기 어렵다. 그러나 시민에게 제공되는 설명은 여전히 부족하다. “시스템상 그렇게 나왔다”는 말은 편리하지만, 납득 가능한 설명은 아니다. 설명 책임은 선택 사항이 아니다. 민주 행정의 기본 원칙이다. 기술이 개입할수록 설명의 필요성은 줄어드는 것이 아니라 오히려 커진다. 사람이 직접 판단했을 때보다, 알고리즘이 개입한 결정일수록 기준과 절차를 더 명확히 밝혀야 한다. 그래야 행정은 신뢰를 유지할 수 있다.

특히 지방행정에서 이 문제는 더 중요하다. 중앙정부보다 시민과의 거리가 가깝기 때문이다. 주민은 정책의 결과를 추상적 통계가 아니라 일상의 변화로 체감한다. 복지 대상에서 제외된 이유, 교통 정책이 바뀐 근거, 지원 순위가 달라진 배경을 설명하지 못하는 행정은 쉽게 불신을 낳는다. AI 분석 결과가 ‘전문 영역’이라는 이유로 설명에서 제외되는 순간, 행정은 민주적 통제에서 벗어난다. 시민은 더 이상 정책의 주체가 아니라 알고리즘의 결과를 통보받는 객체로 전락한다. 자동화된 효율은 높아질지 모르지만, 민주주의는 후퇴한다.

AI 리터러시를 갖춘 리더란 기술을 설명할 줄 아는 사람이 아니다. 시민이 이해할 수 있는 언어로 판단의 구조를 풀어낼 수 있는 사람이다. 어떤 데이터가 사용됐고, 어떤 기준이 적용됐으며, 예외와 이의 제기는 어떻게 처리되는지를 말할 수 있어야 한다. 이 설명 능력이 곧 민주적 책임이다.

이번 6·3 지방선거에서 유권자가 던져야 할 질문도 여기에 있다. AI를 도입하겠다는 후보에게 이렇게 물어야 한다. “이 결정의 기준을 시민에게 어떻게 설명할 것인가.” “자동화된 판단에 이의 제기할 권리는 어떻게 보장할 것인가.” “알고리즘이 잘못됐을 때, 시민은 어디에 호소할 수 있는가.” 이 질문에 답하지 못한다면, 그 후보는 준비되지 않았다. 기술을 도입할 의지는 있을지 몰라도, 민주 행정을 운영할 준비는 부족하다.

아주경제가 말하는 ‘AI 선수’는 기술 친화적 이미지를 가진 후보가 아니다. 설명 책임을 회피하지 않는 리더다. 효율보다 신뢰를 먼저 고려하는 리더다. 자동화를 말할수록, 더 많은 설명을 약속할 수 있는 리더다. AI 행정은 숨겨질수록 위험해진다. 투명할수록 민주적이 된다.

6·3 지방선거, 이제는 이렇게 물어야 한다.
AI가 아니라 설명하는 사람이 보이는 행정을 만들 수 있는가.
AI 선수를 뽑는다는 것은, 결국 그 설명 책임을 감당할 리더를 선택하는 일이다.

 
그래픽지피티
[그래픽=지피티]

©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지

컴패션_PC
댓글0
0 / 300

댓글을 삭제 하시겠습니까?

닫기

로그인 후 댓글작성이 가능합니다.
로그인 하시겠습니까?

닫기

이미 참여하셨습니다.

닫기