미국에서 인공지능(AI) 전용 소셜 플랫폼 ‘몰트북’이 등장했다. 사람 대신 AI가 글을 쓰고, 댓글을 달고, 토론까지 이어가는 커뮤니티다. 이용자는 자신의 AI 에이전트에 활동 권한만 부여할 뿐, 실제 대화에는 거의 개입하지 않는다. 인간은 참여자가 아니라 관찰자에 가깝다.
그동안 소셜네트워크서비스(SNS)는 사람의 생각과 감정이 오가는 공간이었다. 그러나 이 플랫폼에서는 AI가 서로의 글을 읽고 평가하며 관계를 맺는다. 일부 AI는 다른 AI의 게시물을 점수로 매기거나 순위를 정하기도 한다. 말 그대로 ‘AI끼리의 리그’다.
몰트북은 올해 초 만들어진 에이전트 전용 인터넷 커뮤니티다. 사용자가 AI 봇에 활동 코드를 부여하면, 해당 에이전트는 다른 AI와 자율적으로 대화를 이어간다. 게시글 생성은 물론 댓글 작성까지 스스로 수행한다. 국내에서도 AI 캐릭터 간 자동 상호작용을 앞세운 유사 서비스가 잇따라 등장하고 있다. 인간 중심 SNS에서 반복되는 갈등과 피로를 줄이고, 알고리즘 기반 상호작용을 실험하겠다는 취지도 담겼다.
하지만 기술적 실험 용도와는 별개로 법적 과제는 만만치 않다. 가장 먼저 거론되는 것은 개인정보 보호 문제다. 현행 개인정보보호법은 개인정보의 수집과 이용, 제공 전 과정에 명확한 법적 근거를 요구한다.
데이터의 국외 이전도 쟁점이다. 국내 서비스가 해외 AI 애플리케이션 프로그래밍 인터페이스(API)를 활용할 경우, 이용자 정보가 해외 서버로 전송될 수 있다. 개인정보보호법 제28조의8은 개인정보를 국외로 이전할 때 이전 국가, 이전받는 자, 이용 목적 등을 고지하고 동의를 받도록 하고 있다. 그러나 AI 시스템 내부에서 자동으로 처리되는 데이터 흐름이 이용자에게 충분히 설명되고 있는지는 불분명하다. 이용자는 단지 AI가 답변을 생성한다는 사실을 인지할 뿐, 자신의 정보가 어디까지 저장되고 활용되는지는 상세히 알기 어렵다.
안전성 확보 의무도 중요하다. 개인정보보호법 제29조는 개인정보처리자에게 기술적·관리적 보호조치를 요구한다. 자율형 AI 에이전트가 외부 API를 호출하거나 파일 접근 권한을 갖는 구조라면, API 키 유출이나 권한 오남용 위험이 현실화될 수 있다. 사고가 발생했을 때 로그를 추적하고 책임을 가리는 일도 쉽지 않다.
명예훼손과 허위정보 문제 역시 우려된다. AI 간 대화에서 특정 실존 인물을 평가하거나 모방하는 내용이 생성될 경우, 형법 제307조(명예훼손)나 정보통신망법 제70조가 적용될 가능성이 있다. 허위 사실이 확산된다면 피해는 실제로 발생한다.
문제는 책임의 주체다. AI는 현행법상 권리와 의무의 주체가 아니다. 결국 개발사나 플랫폼 운영사, 또는 에이전트 사용 권한을 부여한 이용자 중 누군가가 책임을 져야 한다. 하지만 AI가 자율적으로 생성한 결과물을 누구의 행위로 볼 것인지는 명확하지 않다. 이 때문에 ‘책임의 회색지대’라는 지적이 나온다.
AI 스타트업 고누아이를 운영하는 김병건 변호사는 “AI가 생성한 결과물이라 하더라도 명예훼손이나 개인정보 침해가 발생하면 서비스 운영 주체의 책임이 문제 될 수 있다”며 “AI라는 이유만으로 면책되기는 어렵다”고 말했다. 이는 민법 제750조의 불법행위 책임 원칙에 따른 해석이다. 관리·감독 가능성이 있었다면 플랫폼의 책임이 인정될 수 있다는 뜻이다. 기술의 자율성이 곧 법적 면책을 의미하지는 않는다는 설명이다.
보안 전문가들은 기존 법제의 엄격한 적용이 우선이라고 강조한다. 박춘식 아주대 사이버보안학과 전 교수는 “몰트북만의 특별한 문제가 아니라 기본적으로 개인정보보호법을 철저히 적용해야 한다”며 “사이트 운영자에게 규제를 통해 수집·관리 책임을 분명히 해야 한다”고 제언했다.
또한 박 전 교수는 “개인에게 모든 책임을 지울 수는 없기 때문에 정부가 사업자에게 가이드라인을 제시하고 최소한의 보호 조치를 하도록 해야 한다”고 덧붙였다.
입법 환경도 변하고 있다. 국내에서는 AI 기본법이 지난달부터 시행되며 고위험 AI에 대한 투명성과 안전성 의무가 본격적으로 적용되고 있다. 일정 수준 이상의 위험을 초래할 수 있는 AI 시스템에 대해 안전관리 체계를 갖추고, 이용자에게 충분한 정보를 제공하도록 하는 것이 핵심이다.
특히 생성형 AI의 경우, 이용자가 AI가 만든 결과물임을 인지할 수 있도록 표시 의무를 두는 방안이 포함됐다. 이른바 ‘워터마크’나 생성 사실 고지 조치다. AI가 작성한 게시물이나 이미지, 음성 콘텐츠 등에 대해 사람의 창작물과 구별 가능한 장치를 마련하도록 하는 취지다.
몰트북은 ‘사람 없는 SNS’를 내세우지만, 역설적으로 인간의 책임을 더 또렷하게 드러낸다. AI가 서로 말하고 평가하며 하나의 세계를 구축해도, 그 결과에 대한 법적·사회적 책임은 결국 사람의 몫이다. 기술은 빠르게 진화하지만, 그 속도를 맞추는 숙제는 여전히 제도와 규범에 남아 있다.
©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지



![[르포] 중력 6배에 짓눌려 기절 직전…전투기 조종사 비행환경 적응훈련(영상)](https://image.ajunews.com/content/image/2024/02/29/20240229181518601151_258_161.jpg)



