피지컬 인공지능(AI)과 에이전트 시대 프라이버시 침해 우려가 커지고 있는 가운데 구체적인 개인정보 처리 기준을 정립하기 위해 정부와 민간이 힘을 합친다.
개인정보보호위원회는 2일 오후 서울 중구 은행회관 국제회의실에서 '2026 인공지능(AI) 프라이버시 민·관 정책협의회'를 출범하고 첫 번째 전체회의를 개최했다.
앞서 개인정보위는 챗GPT 등장 이후 급변하는 개인정보 처리 환경에 대응해 AI 편익과 위험성을 고려한 규율체계를 민·관 공동 설계하기 위해 2023년 10월 AI 프라이버시 민·관 정책협의회'를 발족했다. 그간 AI 개발의 기초가 되는 공개된 개인정보 처리 기준과 AI 전반을 아우르는 프라이버시 리스크 관리 모델을 선제적으로 제시했다.
3개 분과로 운영…에이전트·피지컬AI 등 전문성 강화
최근 AI는 단일 모델의 한계를 넘어 서비스간 연계로 과업을 수행하는 에이전트와 피지컬AI로 빠르게 확장하고 있다. 개인정보 처리 방식 또한 모델 내부의 단순 입출력을 벗어나 실시간 연결·추론·실행 등 서비스 흐름 전반으로 확장되고 있고, 개인정보 규율체계도 이러한 변화에 맞춰 복합적인 리스크 관리 체계로 고도화될 필요가 있다.
이러한 변화된 환경에 대응해 올해 민관 협의회를 새롭게 개편했다. 기존 대규모 데이터 수집과 학습 중심 논의에서 '서비스 흐름'에서의 '복합적 리스크' 대응에 초점을 맞춘다.
올해 민관협의회는 에이전트·피지컬AI 등 신흥 기술에 대한 전문성을 대폭 강화한다. 산업계·학계·법조계·시민단체 등 총 37명으로 구성된다. 정부 측 의장은 개인정보위 위원장이, 민간 측 의장은 권창환 부산회생법원 부장판사가 맡는다.
민관협의회는 △데이터 처리기준 분과(분과장 김병필 카이스트 교수) △리스크 관리 분과(분과장 최대선 숭실대 교수) △정보주체 권리 분과(분과장 윤혜선 한양대 교수) 등 3개 분과로 운영된다. 각 분과는 기술의 개인정보 처리 흐름과 위험 요인을 면밀히 분석하고, 리스크 진단·경감 방안과 정보주체의 실효적 권리보장 방안을 아우르는 기준을 논의·마련해 나갈 예정이다.
개인정보위가 운영 중인 '공공 AX 혁신지원 헬프데스크'를 통해 도출되는 주요 쟁점과 현안을 민관협의회에서 함께 논의하고, 그 결과를 지침·안내서 등에 반영할 계획이다. 민관협의회 논의 결과는 국가AI전략위원회, AI안전연구소 등 관계기관과 공유해 AI정책의 정합성과 실행력을 높여 나갈 예정이다.
송경희 개인정보위 위원장은 "AI 기술이 개인정보를 다루는 방식이 점점 더 복합적이고 비선형적으로 변하고 있는데, 협의회는 피지컬 AI 환경에 특화한 개인정보 처리 기준을 구체화하고 에이전트 시대에 프라이버시 보호 기준을 선제적으로 마련할 것"이라면서 "단순한 자문 기구를 넘어 정부와 기업이 위험 요인을 함께 식별하고 기술적 가드레일을 공동으로 설계하는 실질적인 정책 플랫폼으로 운영하겠다"고 밝혔다.
피지컬 AI·에이전트 시대, 프라이버시 침해 복잡…"선제적인 기술적·제도적 장치 마련해야"
이날 출범식에서는 데이터 처리기준 분과장인 김병필 카이스트 교수가 'AI 에이전트 환경에서 개인정보 흐름'을 주제로 발표를 진행했다.
김 교수는 "검색 에이전트, 기억 가능 에이전트, 다중 에이전트 시스템 등 다양한 에이전트 확산에 따라 새로운 개인정보자기결정권 침해 양상이 나타나고 있다"면서 "일례로 현재 LLM 에이전트는 맥락 기반 프라이버시 규범에 이해가 부족한데, 이로 인해 에이전트가 맥락에 맞지 않게 민감 정보를 제 3자에 제공할 가능성이 있다"고 설명했다. 이어 "장기적으로 개인정보 흐름을 추적·통제할 수 있는 제도 및 기술적 장치가 마련될 필요가 있다"고 제언했다.
데이터 처리기준 분과의 역할과 방향도 밝혔다. 그는 “데이터 처리기준 분과에서는 학계·산업계·시민단체의 목소리를 폭넓게 반영해 합리적인 기준을 정립하고, 이를 통해 국제적 논의를 선도할 수 있는 정책 기준점을 제시하겠다”고 말했다.
이와 함께 리스크 관리와 정보주제 권리 분과에서도 향후 정책 제언 방향을 소개했다.
리스크 관리 분과장인 최대선 교수는 "차세대 AI 환경에서 프라이버시 위험을 선제적으로 진단하고, 기술·법·사회적 관점을 결합한 경감방안을 체계화하겠다”며, “리스크 관리 분과는 AI프라이버시 레드티밍 방법론과 실증 기반 리스크 관리 모델을 통해 현장에서 활용 가능한 기준을 마련하고, 이를 국내 정책은 물론 국제 논의에도 기여할 수 있도록 지속적인 연구와 논의를 이어가겠다”고 말했다.
정보주체 권리 분과장인 윤혜선 교수는 “에이전트AI가 이용자를 대신해 자율적으로 판단하고 행동하는 환경에서는 정보주체가 자신의 개인정보 흐름을 파악하고 통제하기가 점점 어려워진다”면서, “정보주체 권리 분과는 자동화된 의사결정에 대한 대응권, 투명성, 선택권 등 정보주체 권리가 실효적으로 작동하는 구체적 방안을 마련하겠다”고 말했다.
협의회에 참여하는 기업들도 지속가능한 혁신을 위해선 규율 체계가 필요하다는 데에 의견을 모았다.
배순민 AI 퓨처 랩(Future LAB)장은 "지속가능한 혁신을 위해선 안전장치가 필수"라면서 "기업 차원에서도 단순히 혁신만을 바라는 것이 아니라, 국가적으로 공감대가 있는, 신뢰할 수 있는 상황 속에서 AI를 했을 때 AX 속도가 훨씬 빨라질 수 있을 것"이라고 밝혔다. 김세웅 카카오 AI 정책총괄도 "에이전틱 AI 시대, 정보주체 권리 관점에서 보았을 때, 카카오가 모든 국민이 사용하는 서비스이다 보니, 안전하고 신뢰할 수 있는 서비스를 만들도록 정책협회의에서 열심히 노력하겠다"고 말했다.
©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지



![[르포] 중력 6배에 짓눌려 기절 직전…전투기 조종사 비행환경 적응훈련(영상)](https://image.ajunews.com/content/image/2024/02/29/20240229181518601151_258_161.jpg)



