[전문가 기고] 필터버블과 에코 체임버, 알고리즘이 초래하는 양극화 문제

조준희 한국소프트웨어산업협회장 사진한국소프트웨어산업협회
조준희 한국소프트웨어산업협회장 [사진=한국소프트웨어산업협회]

우리가 보는 뉴스, 정보, 심지어 정치적 견해까지 이제 알고리즘 지배 아래 놓였다. 현대 사회에서 미디어 알고리즘은 정보를 선별하고 여론을 형성하는 강력한 도구가 되었다. 이러한 알고리즘의 영향력은 정치적 담론에서 특히 두드러지며, 사회적 양극화를 심화시키는 요인으로 작용하고 있다. 개인 맞춤형 정보 제공이 늘어나면서 시민들은 자신의 관점과 일치하는 정보만 접하는 '필터버블' 현상에 갇히게 되었다.

2016년 미국 대선에서부터 알고리즘의 정치적 영향력이 드러났다. 러시아의 가짜 뉴스 유포와 맞춤형 알고리즘이 확증편향을 강화했고, 페이스북 개인정보가 무단 수집·활용된 ‘케임브리지 애널리티카 스캔들’이 더해지며 유권자의 판단을 왜곡하는 '필터버블' 현상이 정치에 활용될 수 있음을 보여줬다.

2020년 미국 대선에서도 소셜 미디어 알고리즘은 극단적 콘텐츠를 우선 추천하며 '음모론 커뮤니티'를 활성화했다. 그 결과, 정치적 고관심 집단은 '에코 체임버'에 갇혔고 이는 의사당 폭동의 도화선이 되었다. 

알고리즘은 자극적이고 극단적인 콘텐츠가 더 많은 클릭을 유도한다는 사실을 학습하여 이러한 콘텐츠를 우선적으로 노출시키는 경향이 있다. 지난 대한민국 대선에서도 유튜브 알고리즘이 사용자의 성향에 맞춘 콘텐츠를 제공하면서 서로 반대되는 정보가 ‘가짜 뉴스’로 치부되었고, 확증편향이 심화되면서 정치 담론은 더욱 과격해졌다.

이용자들도 이미 알고리즘 문제를 심각하게 인식하고 있다. 방송통신위원회(방통위)의 ‘지능정보사회 이용자 패널조사’에 따르면, 이용자들은 알고리즘 추천 서비스가 정보 편향성을 강화하고 개인정보 유출 우려가 크다고 응답했다. 특히, 알고리즘이 콘텐츠를 어떤 기준으로 선별하는지 공개해야 한다는 의견이 가장 많았다. 이는 알고리즘에 대한 사회적 불신이 매우 깊다는 것을 보여준다.

그러나 정부 대응은 여전히 부족하다. 방통위는 2021년 ‘인공지능 기반 미디어 추천 서비스 이용자 보호 기본원칙’을 통해 플랫폼이 콘텐츠 추천 기준을 공개하고, 편향 정보 제공을 최소화하도록 권고했다. 하지만 이는 법적 강제력이 없는 ‘권고’ 수준에 불과하다. 

허위정보 확산 방지 대책도 대부분 국내 뉴스 기관에 국한된 조치이며 유튜브와 같은 글로벌 플랫폼의 알고리즘 작동 방식에 대한 감시는 거의 이뤄지지 않고 있다. 글로벌 플랫폼들은 여전히 불투명한 알고리즘으로 콘텐츠를 노출시키고 있으며, 이에 대한 정부 대응은 미온적이라는 비판이 제기되고 있다.

알고리즘 문제 해결을 위해서는 선언적 정책이 아니라 실질적 조치가 필요하다. 플랫폼 사업자들은 콘텐츠 추천 기준과 알고리즘 작동 방식을 투명하게 공개하고, 이용자들이 정보를 선별적으로 소비하지 않도록 할 필요가 있다. 플랫폼에서 직접 알고리즘을 조정하거나 끌 수 있도록 설정 옵션을 제공해야 한다. 이를 통해 이용자들이 다양한 시각의 콘텐츠를 균형 있게 접할 수 있을 것이다.

알고리즘 문제는 더 이상 방치할 수 없는 사회적 과제다. 정보 편향성과 사회적 양극화가 고착화된다면 사회적 갈등은 더욱 깊어질 것이다. 방통위는 알고리즘 추천 시스템 문제 해결을 위해 단순한 가이드라인 발표를 넘어 실질적인 규제와 감시 체계를 마련해야 한다. 

단, 표현의 자유와 산업 혁신이라는 가치를 희생해선 안 된다. AI 환경에서 공정하고 건전한 정보 생태계를 구축하는 동시에 기술 발전과 표현의 자유를 보장하는 균형 잡힌 접근법을 찾는 것이 우리 민주주의의 미래를 결정할 핵심 과제임을 잊지 말아야 한다.

©'5개국어 글로벌 경제신문' 아주경제. 무단전재·재배포 금지

컴패션_PC
댓글0
0 / 300

댓글을 삭제 하시겠습니까?

닫기

로그인 후 댓글작성이 가능합니다.
로그인 하시겠습니까?

닫기

이미 참여하셨습니다.

닫기